हाल ही में पूर्व Indeed के सीईओ क्रिस हयम्स ने एक असहज सच्चाई का आह्वान किया है: आर्टिफिशियल इंटेलिजेंस (AI) का खतरा तकनीक से नहीं, बल्कि उसे संचालित करने वालों से है। 2025 में, हयम्स ने दो विचारों को रखा: AI पूर्ण रूप से ‘काम’ नहीं करती, लेकिन यह अधिकांश भूमिकाओं में कई कौशल को अच्छी तरह से निष्पादित कर सकती है। मुख्य चुनौती इसे जिम्मेदारी से लागू करना है, क्योंकि इससे रोजगार, आवास, शिक्षा, स्वास्थ्य और न्याय में मौजूदा असमानताओं की वृद्धि होने की संभावना है।
अब ध्यान ‘कैसे’ से ‘कौन’ की ओर बढ़ता है। और यह बदलाव नेतृत्व और संगठनात्मक डिजाइन का एक निदान है: कई कंपनियों में, AI को एक साधारण सॉफ्टवेयर पैकेज के रूप में शामिल किया जा रहा है, जबकि वास्तव में यह आधारभूत मानदंडों, प्रोत्साहनों और नियंत्रणों को बदलने का एक साधन है। यदि गवर्नेंस सिस्टम कमजोर है, तो AI केवल खराब, अस्पष्ट या तात्कालिक निर्णयों को तेज करती है। यदि गवर्नेंस सिस्टम मजबूत है, तो AI उत्पादकता, बेहतर सेवा और कम रुकावट में तब्दील होती है।
जब समस्या चालक है, तो ब्रेक तकनीकी नहीं होते
हयम्स श्रमिक बाजार को अच्छी तरह से जानते हैं क्योंकि Indeed वही जगह है जहां AI तेजी से मूल्य या नुकसान पैदा कर सकता है: लोगों और अवसरों के बीच मिलान। 2025 में, उन्होंने एक उपयोगी लेकिन गलत समझने वाला निष्कर्ष प्रस्तुत किया: “कोई एकल काम नहीं” है जिसमें AI सभी आवश्यक कौशल कर सकती है, लेकिन लगभग “दो तिहाई” कामों में, “50% या उससे अधिक” कौशल हैं जिन्हें मौजूदा जनरेटिव AI “अच्छी तरह या बहुत अच्छी तरह” कर सकता है। यह वाक्य एक परिचालन धार के साथ आता है: कंपनियां एक बाइनरी प्रतिस्थापन के सामने नहीं हैं, बल्कि कार्यों के बड़े टुकड़े के सामने हैं जो हाथ बदल सकते हैं।एक तेज़ी से गतिशील C-Level उस बड़े टुकड़े को लागत में कटौती के एक जनादेश में बदल देता है। एक गंभीर C-Level इसे कार्य के पुन: डिज़ाइन में बदलता है। अंतर गवर्नेंस में निहित है: कौन तय करता है कि कौन से कार्य स्वचालित किए जाएंगे, किन मानदंडों के तहत, किन सीमाओं के एपर्चर में और कौन जिम्मेदार है जब सिस्टम गलती करता है।
2025 में, दावोस में, हयम्स ने उस मैक्रोइकॉनॉमिक रूपरेखा का भी वर्णन किया जो तेज गति को बढ़ावा देती है: "हम एक दौड़ के शुरूआत में हैं" एक उच्च उपयोग की संभावित उत्पादकता के बीच। उन्होंने भी अस्थायी संकुचन की भविष्यवाणी की: "30 वर्षों का परिवर्तन" तीन या चार वर्षों में हो सकता है। जब गति ऐसी हो, तो सबसे बड़ा जोखिम एक अपरिवर्तनीय मॉडल नहीं है; यह एक संगठन है जो शॉर्टकट लेता है क्योंकि प्रोत्साहन बोर्ड गति को नियंत्रण से ऊपर मानता है।
2026 की चेतावनी एक पैटर्न में बैठती है जिसे मैं अक्सर रूपांतरणों में देखता हूं: सिद्धांतों और समितियों की घोषणा की जाती है, लेकिन दैनिक निष्पादन तिमाही की धारणाओं द्वारा कैद हो जाता है। उस बिंदु पर, "जिम्मेदारी" एक दस्तावेज बन जाती है, जबकि उत्पाद और ऑपरेशंस कार्यान्वयन को बढ़ाते हैं। प्रौद्योगिकी उस व्यापार ऑफ को तय नहीं करती; आंतरिक शक्ति की संरचना तय करती है।
AI को आईटी प्रोजेक्ट के रूप में देखने के बजाय पोर्टफोलियो तनाव के रूप में समझें
बड़ी कंपनियों में, AI को अपनाने के लिए दो द्वार होते हैं। पहला है दक्षता: समर्थन का स्वचालन, सामग्री का निर्माण, डेवलपर्स को सहायता, आंतरिक विश्लेषण। दूसरा उत्पाद का है: ग्राहकों के लिए नई सुविधाएं, बेहतर सिफारिशें, बेहतर मिलान, कम रुकावट। दोनों मामलों में, क्लासिक गलती इसे एक आईटी प्रोजेक्ट के रूप में ध्यान में रखना है, जिसे समय सीमा और मानक वित्तीय KPI के साथ प्रबंधित किया जाता है।हयम्स के कौशल के बारे में विचार कुछ और सुझाव देता है: AI वर्तमान "राजस्व जनरेटर" और "संचालन संबंधी दक्षता" को एक साथ प्रभावित करता है। और अगर यह सही तरीके से किया जाए, तो "इन्क्यूबेशन" और क्षमताओं के "रूपांतरण" के लिए जगह खुलती है। यदि यह गलत तरीके से किया जाए, तो यह केवल तात्कालिक लागत में कमी करता है और लंबे समय में सिस्टम को खराब करता है।
इसलिए उनके ध्यान में बदलाव महत्वपूर्ण है। जब एक नेता कहता है कि जोखिम उन पर है जो उसे संचालित करते हैं, तो वह कहता है कि सामान्य असफलता प्रयोगशाला में नहीं है; यह वितरण में है: यह बिना स्पष्टता के, निर्णयों की अनदेखी के साथ और सिस्टम को नुकसान पहुंचाने पर रोकने के लिए उचित तंत्र के बिना, सक्रिय रूप से लागू किया जाता है। और जैसे कि रोजगार जैसे क्षेत्रों में, "नुकसान" की धारणा अमूर्त नहीं होती है: गलत तरीके से सेट किया गया फ़िल्टर प्रोफाइल को बाहर कर सकता है, ऐतिहासिक पूर्वाग्रहों को बढ़ा सकता है या ऑडिट करने में मुश्किल से पारदर्शिता बना सकता है।
हयम्स ने पहले ही इस बिंदु पर साहसिकता से बात की थी जब उन्होंने जिम्मेदार AI को अपनी ज़िंदगी के “नागरिक अधिकार और मानव अधिकार” का मुद्दा करार दिया था, और यह इंगित किया था कि रोजगार, आवास, शिक्षा, स्वास्थ्य और न्याय में गहरी असमानताएँ हैं जिन पर एक स्वचालित प्रणाली बढ़ा सकती है। यह दृष्टिकोण चेकलिस्ट से हल नहीं होती है। यह पोर्टफोलियो के निर्णयों के माध्यम से हल होती है: नियंत्रण और ऑडिट के लिए कितनी बजट, तैनाती की गति के लिए कितनी, प्रशिक्षण के लिए कितनी, प्रक्रिया के फिर से डिज़ाइन के लिए कितनी। यदि सब कुछ तात्कालिक लाभ के साथ मापा जाए, तो नियंत्रण हमेशा हारता है।
बिना संचालनात्मक स्वायत्तता के गार्डरेल सजावट की बिदाई करते हैं
Indeed ने जिम्मेदार AI के लिए विभिन्न क्षेत्रों के विशेषज्ञों की एक टीम बनाई, हयम्स के अनुसार, सिस्टम का आकलन करने और जिम्मेदार AI के सिद्धांतों के तहत प्रौद्योगिकी बनाने के लिए। इंटरडिसिप्लिनैरिटी एक सही संकेत है। समस्या तब उत्पन्न होती है जब वह टीम परामर्शी होती है, उत्पाद चक्र में देर से पहुंचती है, या तैनाती को रोकने की शक्ति नहीं रखती।परिणाम प्राप्त करने का दबाव कंपनियों में "जिम्मेदार टीम" को एक अंतिम समीक्षक में बदल देता है, जो हस्ताक्षर करता है या नहीं। यदि संगठन ने पहले से ही कोई व्यावसायिक तारीख निर्धारित की है, तो वह हस्ताक्षर एक औपचारिकता हो जाता है। और अगर उस टीम को ऐसे मैट्रिक्स के साथ आंका गया, जो उसके मिशन को दर्शाता नहीं है, तो वह उस प्रणाली में फंस जाती है, जो उसे संतुलित करना चाहिए था।
हयम्स का 2025 का दृष्टिकोण समाज-तकनीकी था: उन सामाजिक निर्माणों को समझना जहाँ सिस्टम लगते हैं। मूलतः, इसका अर्थ तीन व्यावहारिक बातें हैं। पहला, डेटा की गुणवत्ता और उसकी कहानी महत्वपूर्ण है, क्योंकि पूर्वाग्रह को "ठीक" नहीं किया जा सकता है। दूसरा, आउटपुट को स्पष्टता रूप से होना चाहिए जो संदर्भ की मांग करता है, विशेष रूप से उन निर्णयों में जो आर्थिक अवसरों को प्रभावित करते हैं। तीसरा, उत्तरदायित्व आवंटित होना चाहिए: यदि एक सिस्टम एक चयन चरण को स्वचालित करता है, तो किसी को परिणाम और दुष्प्रभावों का मालिक होना चाहिए।
जब हयम्स अब AI को चलाने वालों की ओर इशारा करते हैं, तो वह अधिक ढृढ़ता के साथ गवर्नेंस की विफलताओं के एक पैटर्न का वर्णन कर रहे हैं, न की तकनीकी कमी। मध्यम आकार की कंपनी को एक बेहतर मॉडल की कमी नहीं होती; इसे एक निर्णय लेने की डिजाइन की कमी होती है जो गति, नियंत्रण और वैधता को संतुलित करने के लिए बाध्य करती है।
उत्पादकता की दौड़ यदि सही से नहीं मापी जाती है, तो विश्वास को कमजोर कर सकती है
उत्पादकता पर दबाव कोई नैतिक बहाना नहीं है, यह एक आर्थिक सीमा है। यदि श्रमिक की संख्या घटती है और मांग रहती है, तो स्वचालन के लिए प्रलोभन बढ़ता है। खतरा यह है कि कई कंपनियां AI के फायदों को आसान संकेतकों से और लागत को अदृश्य संकेतकों से मापती हैं।सामान्य लाभ तेजी से बोर्ड में शामिल होते हैं: प्रति टिकट कम समय, प्रति इंटरैक्शन कम लागत, विकास में अधिक थ्रूपुट, अधिक उत्पादन सामग्री। महत्वपूर्ण लागत अक्सर देर से दिखाई देती हैं: पूर्वाग्रह की शिकायतें, विश्वास की हानि, नियोक्ता ब्रांड को गिराना, नियामक जोखिम, और आंतरिक टीमें जो प्रक्रिया को समझना बंद कर देती हैं क्योंकि उसने एक सिस्टम को सौंप दिया है।
कामकाजी क्षेत्र में, वह असामान्यता विशेष रूप से संवेदनशील है। यदि एक उम्मीदवार मनमानी को महसूस करता है, तो मंच की प्रतिष्ठा खो जाती है। यदि एक कंपनी महसूस करती है कि मिलान बिगड़ रहा है या प्रक्रिया अस्पष्ट है, तो वह अपने खर्च को समायोजित करती है। AI मिलान में सुधार कर सकता है, लेकिन केवल यदि इसे अनुशासन के साथ चलाया जाता है: स्पष्ट लक्ष्य, निरंतर मूल्यांकन और ट्रेसबिलिटी।
हयम्स ने यह भी भविष्यवाणी की कि "10 गुना" अधिक लोग कोडर बनेंगे, लेकिन काम "अविकसित" होगा। यह विचार ज्ञान कार्य के गहरे पुन: डिज़ाइन की ओर इंगित करता है। और जब काम इस प्रकार बदलेगा, तो कंपनी को अपने प्रदर्शन प्रणाली, प्रशिक्षण, और भूमिकाओं की संरचना को फिर से डिज़ाइन करना होगा। यदि इसे नहीं किया गया, तो AI पुराने प्रक्रियाओं पर एक अतिरिक्त परत बन जाता है, जिससे फिसलन और त्रुटियों का उत्पन्न होना होता है।
यहाँ जो नेतृत्व विफल हो रहा है, वह बुरी नीयत के कारण नहीं है, बल्कि पिछले नियंत्रण पैनल के मौजूदा विचारधारा पर काम करने के कारण हो रहा है। AI को एक मिश्रित नियंत्रण पैनल की आवश्यकता होती है: दक्षता और सीखना। यदि केवल दक्षता को इनाम दिया जाता है, तो जल्दी नुकसान का पता लगाने की क्षमता खत्म हो जाती है।
एक ऑपरेटिंग पैटर्न बनाना ताकि AI प्रणालीगत जोखिम न बने
सार्वजनिक उपलब्ध जानकारी के साथ, हयम्स अपनी हाल की चेतावनी में विशिष्ट उदाहरणों का विवरण नहीं देते हैं। फिर भी, उनकी यात्रा केंद्रित जोखिम को सिद्धांतों और कार्यान्वयन के बीच की दूरी के रूप में पढ़ने की अनुमति देती है। बड़ी संगठनों में, वह दूरी डिज़ाइन के माध्यम से घटाई जाती है, भाषणों के माध्यम से नहीं।व्यवहारिक दृष्टिकोण से, मैं चार तंत्रों को देखता हूं जो स्वस्थ अपनाने को नाजुक अपनाने से अलग करते हैं। पहला है स्पष्ट स्वामित्व: हर सिस्टम जिसके निर्णयों पर संवेदनादायक प्रभाव पड़ता है, का एक व्यवसाय का मालिक और जोखिम का मालिक होना चाहिए, जिसकी वास्तविक प्राधिकृति होती है। दूसरा है सीमाओं के साथ स्वायत्तता: प्रयोग करने वाली टीमों को गति की आवश्यकता होती है, लेकिन उस ढांचे के भीतर जो तय करता है कि क्या नहीं छुआ जाएगा और क्या हमेशा ऑडिट होगा। तीसरा है सही मैट्रिक्स को सही चरण के लिए: प्रारंभिक तैनातियों में, केवल बचत या रूपांतरण को मापना समस्याओं को छुपाता है; स्थिरता, गलती, शिकायतें और उलटने को भी मापने की आवश्यकता है। चौथा है वापसी की क्षमता: यदि एक सिस्टम नुकसान पैदा करता है, तो कंपनी को उसे बंद करने या उसके प्रदर्शन को कम करने की क्षमता होनी चाहिए, बिना संचालन को बाधित किए।
यह अतिरिक्त नौकरशाही नहीं है। यह एक न्यूनतम संगठनात्मक इंजीनियरिंग है ताकि AI उत्पादकता हो सके और फिर भी स्थायी बुराई बन सके। हयम्स का "जो AI को संचालित करते हैं" पर टिप्पणी करना वास्तव में एक आलोचना है कि बिना संचालनात्मक ब्रेक्स के अपनाने।
Indeed का मामला महत्वपूर्ण है क्योंकि रोजगार उद्योग संवेदनशीलता सामाजिक और नियामक अनुकूलता के केंद्र में है। वे कंपनियाँ जो नियंत्रण की अनदेखी करते हुए दक्षता की ओर दौड़ती हैं, एक त्रैमासिक में जीत सकती हैं लेकिन वर्षों के लिए विश्वास खो सकती हैं। जो कंपनियां गवर्नेंस और कार्य के पुन: डिज़ाइन में निवेश करती हैं, वे निरंतर उत्पादकता को पकड़ सकती हैं।
कार्यशीलता का माप दो गति के बिना मुख्य धारा को बिना तोड़े चलाना
AI कंपनियों को दो गति से काम करने के लिए मजबूर कर रहा है: मौजूदा व्यवसाय को लागत अनुशासिता के साथ बनाए रखना और एक ही समय में कार्य और उत्पाद के पुन: डिज़ाइन के लिए एक गति से अन्वेषण करना जो एक स्टार्टअप की तरह दिखाई देती है, एक बड़े निगम की बजाय। हयम्स की चेतावनी यह याद दिलाती है कि विफलता का बिंदु शायद ही कभी मॉडल होता है; यह चारों ओर के निर्णय लेने की प्रणाली होती है।एक सफल संगठन वर्तमान इंजन के पिट को सुरक्षित करता है बिना अन्वेषण को असामान्य बनाये। यह स्पष्ट प्राधिकृति बांटता है कि कब तैनातियों को रोकना है जब जोखिम लाभ को पार कर जाता है। और जल्दी की सीख को मापता है नियामकों से जो गलतियों के पता लगाने को दंडित नहीं करते। यह बैलेंस वर्तमान लाभ को स्थायी बनाता है और भविष्य के लिए स्केल करने की क्षमता का निर्माण करता है।









