AI एजेंट पहले से ही आपके सिस्टम में हैं और आपकी आइडेंटिटी रणनीति को अभी तक इसकी जानकारी नहीं है

AI एजेंट पहले से ही आपके सिस्टम में हैं और आपकी आइडेंटिटी रणनीति को अभी तक इसकी जानकारी नहीं है

2026 के अंत तक, 40% एंटरप्राइज़ एप्लिकेशन में विशिष्ट कार्यों के साथ AI एजेंट शामिल होंगे। बारह महीने पहले, यह संख्या 5% से भी कम थी। यह उछाल केवल सांख्यिकीय नहीं है — यह संरचनात्मक है।

Francisco TorresFrancisco Torres6 मई 20267 मिनट
साझा करें

AI एजेंट पहले से आपके सिस्टम के अंदर हैं और आपकी पहचान-प्रबंधन रणनीति को अभी तक इसकी खबर नहीं है

2026 के अंत तक, 40% एंटरप्राइज़ एप्लिकेशन में विशिष्ट कार्यों के लिए AI एजेंट शामिल होंगे। बारह महीने पहले, यह आंकड़ा 5% से भी कम था। यह छलांग केवल सांख्यिकीय नहीं है: यह संरचनात्मक है। लाखों गैर-मानव पहचानें इस समय कॉर्पोरेट नेटवर्क में डेटा, सिस्टम और निर्णयों तक पहुंच के साथ काम कर रही हैं, और सुरक्षा टीमों का बड़ा हिस्सा अभी भी इस समस्या को गलत उपकरणों से देख रहा है।

पहचान और पहुंच प्रबंधन — जिसे उद्योग में IAM (Identity and Access Management) कहा जाता है — एक ऐसी दुनिया के लिए बनाया गया था जहाँ सिस्टम के अभिनेता इंसान होते थे। कोई व्यक्ति प्रवेश करता है, उसे एक भूमिका सौंपी जाती है, समय-समय पर उसकी पहुंच की समीक्षा की जाती है और अंततः उसे हटा दिया जाता है। इस चक्र में मानवीय तर्क है क्योंकि इसे मनुष्यों के लिए डिज़ाइन किया गया था। AI एजेंट मानव संसाधन विभाग के रास्ते नहीं आते, उनके पास अनुमतियाँ स्वीकृत करने वाला कोई प्रबंधक नहीं होता और न ही उनकी कोई निर्धारित समाप्ति तिथि होती है। लेकिन उनके पास पहुंच ज़रूर होती है। और वह पहुंच, अधिकांश संगठनों में, किसी भी नए कर्मचारी की तरह उतनी कठोरता से नियंत्रित नहीं होती।

यह कोई छोटी तकनीकी समस्या नहीं है। यह एक संरचनात्मक दरार है जिसमें यह दर्शाया गया है कि कंपनियां यह कैसे समझती हैं कि उनके सिस्टम के भीतर कौन — या क्या — काम कर रहा है।

वह इन्वेंटरी जो किसी के पास नहीं है

नियंत्रणों की बात करने से पहले, एक और बुनियादी सवाल है जिसका जवाब बहुत कम संगठन सटीकता से दे सकते हैं: अभी इस समय उनके परिवेश में कितने AI एजेंट चल रहे हैं, किसने उन्हें तैनात किया और वे क्या कर सकते हैं।

असुविधाजनक जवाब यह है कि अधिकांश को पता नहीं। Gravitee द्वारा प्रकाशित आंकड़ों के अनुसार, उत्पादन परिवेशों में काम करने वाले सात में से केवल एक AI एजेंट को तैनाती से पहले सुरक्षा टीम की औपचारिक समीक्षा मिली। बाकी को परिचालन आपात स्थिति के साथ व्यवसाय या विकास टीमों द्वारा लॉन्च किया गया था, बिना उन्हीं फिल्टरों से गुजरे जो किसी भी नए सिस्टम पर लागू होते हैं। परिणाम गैर-मानव पहचानों का एक ऐसा पारिस्थितिकी तंत्र है जो बिना ऑडिट के अनुमतियाँ जमा करता है, साझा क्रेडेंशियल के तहत काम करता है और उस कार्यप्रवाह के बदलने या गायब हो जाने के बाद भी बहुत देर तक सक्रिय रहता है जिसने उन्हें जन्म दिया था।

अवधारणा के रूप में यह समस्या नई नहीं है। गैर-मानव पहचानें — सेवा खाते, API कुंजियाँ, स्वचालन स्क्रिप्ट — AI एजेंटों के दृश्य में प्रवेश करने से पहले ही अधिकांश बड़ी कंपनियों में मानव उपयोगकर्ताओं की संख्या से अधिक हो गई थीं। जो बदला है वह है गति और स्वायत्तता। एक Kubernetes क्लस्टर मिनटों में हजारों सेवा खाते तैयार कर सकता है। एक AI एजेंट एक साथ कई सिस्टम के साथ इंटरैक्ट कर सकता है, वास्तविक समय में निर्णय ले सकता है और संदर्भ के अनुसार अपने व्यवहार को बदल सकता है। यह किसी निर्देश की प्रतीक्षा करने वाला निष्क्रिय सेवा खाता नहीं है। यह आपके सिस्टम के भीतर अपनी स्वयं की निर्णय क्षमता वाला एक अभिनेता है।

यह स्पष्ट इन्वेंटरी के बिना कि कौन से एजेंट मौजूद हैं, उनके पास क्या पहुंच है और कौन उनके लिए जिम्मेदार है, नियंत्रणों के बारे में कोई भी बातचीत समस्या के बाद की है। आप जो सूचीबद्ध नहीं किया वह नियंत्रित नहीं कर सकते।

जब अभिनेता एक मशीन हो तो उल्लंघन कैसा दिखता है

पिछले साल हुई Salesloft और Drift की घटना उस प्रकार के जोखिम को बिल्कुल सटीक रूप से दर्शाती है जो तब उभरता है जब पहचान नियंत्रण AI एकीकरण तक नहीं पहुंचते। हमलावरों ने Drift चैटबॉट से जुड़े OAuth टोकन — Salesloft द्वारा उपयोग किया जाने वाला एक AI एकीकरण — से समझौता किया और 700 से अधिक संगठनों के Salesforce परिवेशों तक पहुंच बनाई। यह उल्लंघन कई दिनों तक किसी की नज़र में नहीं आया।

जो विवरण महत्वपूर्ण है वह तकनीकी नहीं बल्कि परिचालन है: सुरक्षा टीम देख सकती थी कि चैटबॉट के पास पहुंच है। जो वे नहीं देख सकते थे वह यह था कि वह वास्तविक समय में उस पहुंच के साथ क्या कर रहा था। बाहर से, दुर्भावनापूर्ण प्रश्न बॉट के वैध व्यवहार से अप्रभेद्य थे। यह एक विश्वसनीय गैर-मानव पहचान थी जो वास्तव में वही कर रही थी जो उसे करना चाहिए था।

वह पैटर्न — दृश्यमान पहुंच, अदृश्य व्यवहार — समस्या का मूल है। पारंपरिक IAM ढांचे इस सवाल का जवाब देने के लिए बनाए गए थे कि किसके पास क्या पहुंच है। AI एजेंटों के सामने, जो सवाल मायने रखता है वह यह है कि वह पहुंच हर पल क्या कर रही है, किस संदर्भ में और किस उद्देश्य से। ये अलग-अलग सवाल हैं और इनके लिए अलग-अलग उपकरणों की आवश्यकता है।

भूमिका-आधारित स्थिर नियंत्रण मॉडल — आप एक भूमिका निर्दिष्ट करते हैं, भूमिका अनुमतियाँ परिभाषित करती है, अनुमतियों की हर तिमाही समीक्षा होती है — उन अभिनेताओं के लिए डिज़ाइन नहीं किया गया था जो मशीन की गति से काम करते हैं और संदर्भ के अनुसार अपने व्यवहार को बदलते हैं। आपको निरंतर जोखिम मूल्यांकन की आवश्यकता है, न कि आवधिक ऑडिट की। आपको यह आवश्यकता है कि जब कार्य समाप्त हो तो पहुंच स्वचालित रूप से समाप्त हो जाए, न कि अनिश्चित काल तक बनी रहे क्योंकि किसी ने इसे रद्द नहीं किया।

सिद्धांत लंबे समय से मौजूद हैं। न्यूनतम विशेषाधिकार, जस्ट-इन-टाइम एक्सेस, एफेमेरल टोकन जो स्वयं समाप्त हो जाते हैं, प्रिविलेज्ड एक्सेस मैनेजमेंट प्लेटफ़ॉर्म के साथ एकीकरण। ये तंत्रों में से कोई भी नया नहीं है। जो नया है वह उन्हें उस वर्ग की पहचानों तक विस्तारित करने की तात्कालिकता है जिनके लिए मूल रूप से नहीं सोचा गया था, और यह अगली घटना त्रैमासिक रिपोर्ट में प्रकट होने से पहले करना।

वह जो संगठन टाल रहे हैं और इस टालमटोल की क्या कीमत है

इसकी एक वजह है कि सुरक्षा टीमों ने AI एजेंटों के तैनाती की उसी गति से अपने IAM ढांचे का विस्तार नहीं किया है: तैनाती व्यवसाय टीमों द्वारा संचालित होती है और सुरक्षा टीमें बाद में प्रतिक्रिया करती हैं।

असमानता संरचनात्मक है। एक उत्पाद या संचालन टीम जो एक कार्यप्रवाह को स्वचालित करने के लिए AI एजेंट में एक तरीका खोजती है, उसके पास सुरक्षा समीक्षा के लिए रुकने का कोई प्रोत्साहन नहीं है जिसमें हफ्तों लग सकते हैं। उनका प्रोत्साहन तत्काल परिचालन परिणाम है। ऐसा न करने की कीमत — एक उल्लंघन, अनधिकृत पहुंच, एक समझौता किया गया एजेंट — एक और टीम बाद में, एक अलग बजट के तहत चुकाती है।

प्रोत्साहन का यह वितरण ठीक वही अव्यवस्थित इन्वेंटरी पैदा करता है जिसका हमने पहले वर्णन किया था: दर्जनों या सैकड़ों एजेंट उत्पादन में चल रहे हैं, कई बिना किसी औपचारिक स्वामी के, बिना समीक्षा किए गए अनुमतियों के साथ और ऐसी क्रेडेंशियल के साथ जिनकी समाप्ति का कोई नहीं जानता।

समाधान एजेंट तैनाती को धीमा करना नहीं है। उत्पादकता लाभ वास्तविक हैं और जो संगठन पीछे रह जाते हैं वे उस कीमत को किसी अन्य तरीके से चुकाएंगे। समाधान पहचान शासन को तैनाती प्रक्रिया में एकीकृत करना है, न कि एक बाद के कदम के रूप में बल्कि एक पूर्व शर्त के रूप में। यह कि कोई भी एजेंट उत्पादन में प्रवेश न करे जब तक कोई तीन बुनियादी सवालों का जवाब न दे: उसके पास किस चीज़ तक पहुंच है, उस पहुंच के लिए कौन जिम्मेदार है और किन परिस्थितियों में वह पहुंच समाप्त होती है।

Gartner ने AI एजेंट पहचानों पर शासन की कमी को 2026 के लिए साइबर सुरक्षा के सबसे महत्वपूर्ण रुझानों में से एक के रूप में पहचाना। इसलिए नहीं कि यह अपने तर्क में एक नई समस्या है, बल्कि इसलिए कि अपनाने की गति नियंत्रणों की गति से आगे निकल रही है। दोनों के बीच की खाई वह जगह है जहाँ घटनाएं रहती हैं।

परिचालन AI की दौड़ में जो गवर्नर गायब है

एंटरप्राइज़ में AI के बारे में प्रमुख कथा क्षमता पर केंद्रित है: एक एजेंट क्या कर सकता है, कितना समय बचाता है, कितनी प्रक्रियाओं को स्वचालित करता है। यह एक वैध कथा है। उत्पादकता के आंकड़े वास्तविक हैं।

जो यह कथा बाहर छोड़ती है वह यह सवाल है कि जब कुछ गलत हो जाए तो कौन जिम्मेदार है। और जब जो अभिनेता विफल होता है वह कोई कर्मचारी नहीं बल्कि कई सिस्टम तक पहुंच वाला एक एजेंट हो, तो सवाल का जवाब देना और भी कठिन हो जाता है।

लागत में कमी जो IAM में AI ढांचे का वादा करती है — कुछ उद्योग अध्ययनों के अनुसार 80% तक — अपने आप नहीं आती। यह तब आती है जब किसी ने फैसला किया कि AI एजेंट इंजीनियरिंग निर्णय होने से पहले पहचान के निर्णय हैं। जब सुरक्षा टीम के पास प्रत्येक एजेंट के व्यवहार की वास्तविक समय दृश्यता हो, न केवल उनकी स्थिर अनुमतियों की। जब पहुंच स्वचालित रूप से समाप्त होती है और सत्यापन प्रवाह निरंतर होते हैं, न कि वार्षिक।

जो संगठन उस स्तर के शासन के बिना AI एजेंट तैनात कर रहे हैं, वे अज्ञानता के कारण लापरवाह नहीं हैं। वे इसलिए लापरवाह हैं क्योंकि तेज़ी से आगे बढ़ने का दबाव वास्तविक है और सही नियंत्रणों के लिए निवेश, समन्वय और तैनाती प्रक्रियाओं में जानबूझकर घर्षण की आवश्यकता होती है।

वह घर्षण, अच्छी तरह से डिज़ाइन किया गया, अपनाने को धीमा नहीं करता। यह इसे टिकाऊ बनाता है। एक AI कार्यक्रम जो व्यवस्थित रूप से स्केल करता है और एक जो अठारह महीनों में एक बड़ी घटना पैदा करता है, के बीच का अंतर मॉडलों की गुणवत्ता या उपयोग के मामलों की महत्वाकांक्षा में नहीं है। यह इस बात में है कि क्या किसी ने पहले एजेंट के उत्पादन में आने से पहले पहचानों के बारे में बातचीत की थी।

साझा करें

आपको यह भी पसंद आ सकता है