वह गलती जो प्रति वर्ष 67,400 मिलियन डॉलर का नुकसान करती है
किसी राजनीतिज्ञ की जीवनी को गढ़ने वाले चैटबॉट और एक एआई एजेंट के बीच एक महत्वपूर्ण अंतर है जो निर्मित डेटा के आधार पर खरीदारी का आदेश देता है। पहले मामले में, नुकसान केवल प्रतिष्ठात्मक है और उसे ठीक किया जा सकता है। दूसरे मामले में, पैसा पहले ही खाते से निकाला जा चुका है।
यह वही हो रहा है। Fortune में उद्धृत AllAboutAI के एक अध्ययन के अनुसार, एआई की भ्रांतियों के कारण 2024 में वैश्विक हानियाँ 67,400 मिलियन डॉलर तक पहुँच गईं। यह कोई सैद्धांतिक भविष्यवाणी नहीं है; यह गलत जानकारी के आधार पर की गई निर्णयों की वास्तविक लागत है। Forrester Research एक और परत जोड़ता है: प्रत्येक कर्मचारी औसतन 14,200 डॉलर वार्षिक का समय और संसाधन बर्बाद करता है यह सत्यापित करने में कि एआई ने क्या गलत किया है।
समस्या नई नहीं है, लेकिन यह अब गुणात्मक रूप से भिन्न है, क्योंकि एआई प्रणाली सवालों का उत्तर देने से कार्य निष्पादित करने में परिवर्तित हो गई है। एक संवाद में भ्रांति रखने वाला भाषा मॉडल एक अविश्वसनीय सहायक होता है। जबकि वित्तीय बाजारों में स्थिति प्रबंधित करते समय भ्रांति बनाने वाले आत्मनिर्भर एजेंट सीधे परिचालन हानियों का स्रोत होते हैं, जिनके नियामक और प्रतिष्ठात्मक परिणाम होते हैं।
वित्तीय प्रश्नों के संदर्भ में भ्रम की दर 41% तक पहुँच जाती है, जैसा कि Aveni.ai के आँकड़े Fortune द्वारा एकत्र किए गए हैं। इस आँकड़े का संदर्भ: यदि एक जूनियर मानव विश्लेषक चार में से दो विश्लेषणों में गलतियाँ करता है, तो वह पहले तिमाही में काम नहीं कर पाएगा। हालाँकि, एआई एजेंट ऐसे पैमाने और गति पर काम करते हैं जिसे कोई मानव वास्तविक समय में निरीक्षण नहीं कर सकता, जिससे प्रत्येक गलती एक संभावित प्रणालीगत घटना बन जाती है।
समस्या का समाधान आर्किटेक्चर, न कि संस्करणों में है
संस्थानिक प्रतिक्रिया इस क्षण की गंभीरता को दर्शाती है। Google DeepMind, Microsoft, Columbia University, और t54 Labs के शोधकर्ता एआई के आत्मनिर्भर एजेंटों के चारों ओर "वित्तीय सुरक्षा जाल" विकसित करने पर काम कर रहे हैं। उद्देश्य ऐसे प्रोटोकॉल तैयार करना है जो भ्रांतियों को वास्तविक लेन-देन में अनुवादित होने से पहले ही रोक दें।
इस पहल को महत्वपूर्ण बनाने वाले चीज है इसके पीछे की निहित अपेक्षा: समस्या का समाधान बेहतर मॉडल संस्करण के साथ नहीं किया जा सकता है। इसे मॉडल से बाहर किसी शासन की परत बनाने की आवश्यकता है।
यह भेद महत्वपूर्ण है। पिछले तीन वर्षों में, उद्योग ने यह अनुमान लगाया है कि अधिक पैरामीटर, अधिक प्रशिक्षण डेटा और बेहतर दिशानिर्देश भ्रांतियों को कम कर देंगे। इसके विपरीत, बाजार के डेटा यही दर्शाते हैं। arxiv.org पर एक अध्ययन में 178 कार्यों पर 17 एआई मॉडल का मूल्यांकन किया गया: बिना सहायक उपकरण के, मॉडल 28% सटीकता तक पहुँच गए, जबकि मानव विश्लेषक उसी कार्यों में 80% सटीकता के साथ कार्य करते हैं। साधनों के साथ, प्रदर्शन 67.4% तक बढ़ गया, लेकिन एक संरचनात्मक दोष के साथ: मॉडल ने विश्वसनीय स्रोतों पर कम गुणवत्ता वाली वेब खोजों को प्राथमिकता दी। समस्या मॉडल की तार्किक क्षमता नहीं थी; इसकी जानकारी चुनने की विशेषता थी।
यह निष्कर्ष बहस का केंद्र है। वित्तीय भ्रांतियाँ हमेशा इसलिए नहीं होतीं कि मॉडल को कुछ नहीं पता। कई मौकों पर, मॉडल जवाब प्राप्त करने के सही तरीके को जानता है लेकिन गलत तरीके से डेटा प्राप्त करता है। यह एक निर्णय के आर्किटेक्चर का दोष है, और कोई भी नए तंत्रिका वजन को अपडेट करके इसे अकेले नहीं हल कर सकता।
बाजार पहले ही इसे पहचान चुका है। Gartner ने 2023 से 2025 के बीच भ्रांति पहचानने वाले उपकरणों में 318% का विकास दर्शाया है। 91% एआई नीतियों में अब स्पष्ट कमीकरण प्रोटोकॉल शामिल हैं। संगठन मॉडल के सुधार की प्रतीक्षा नहीं कर रहे हैं: वे बाह्य निगरानी के परतें बना रहे हैं क्योंकि उन्होंने सीखा है कि प्रतीक्षा महंगी है।
वास्तविक लागत गलती में नहीं, बल्कि श्रृंखला में है जो इसे ट्रिगर करती है
भ्रांतियों की लागत का विश्लेषण केवल प्रत्यक्ष हानियों के संदर्भ में करना एक अनुचित दृष्टिकोण है। गहराई से होने वाले नुकसान तीन स्तरों पर चलते हैं जो एक-दूसरे को प्रभावित करते हैं।
पहला है नियामक स्तर। अमेरिका में Securities and Exchange Commission और ब्रिटेन में Financial Conduct Authority स्पष्ट हैं: कंपनियाँ अपनी एआई प्रणालियों के परिणामों के लिए जिम्मेदार होती हैं। "एल्गोरिदम ने गलती की" एक वैध रक्षा नहीं है। इसका मतलब है कि आत्मनिर्भर एजेंट द्वारा की गई हर लेन-देन उस संस्था के कानूनी हस्ताक्षर के साथ होती है जिसने इसे तैनात किया, चाहे उस विशेष गलती के क्षण में कितनी भी मानव निगरानी क्यों न हो।
2023 में Air Canada के मामले में, जहां कंपनी ने अपने चैटबॉट द्वारा गलत जानकारी के कारण एक मुकदमा खोया, यह एक कानून स्थापित करता है जिसे वित्तीय क्षेत्र नजरअंदाज नहीं कर सकता।
दूसरा है ऑपरेशनल ट्रस्ट स्तर। AllAboutAI के 2025 के अध्ययन के अनुसार, 47% कार्यकारी ऐसे निर्णय लेते हैं जो एआई के अनुसार गलत हैं। जब यह बार-बार होता है, तो परिणाम यह होता है कि कार्यकारी एआई का उपयोग करना बंद नहीं करते हैं: वे अनौपचारिक सत्यापन परतें विकसित करते हैं जो ठीक उसी समय को बर्बाद करती हैं जिसे स्वचालन को मुक्त करना चाहिए। सत्यापन की ओवरहेड 22% की उत्पादकता की कमी करती है, जो प्रारंभिक स्वचालन में निवेश के लिए सही ठहराये गए अधिकांश आर्थिक मूल्य को नष्ट करती है।
तीसरी परत सबसे मौन है: संस्थानिक निर्णय लेने की गुणवत्ता में गिरावट। जब टीमें एआई उत्पादों पर भरोसा करना सीखती हैं बिना यह जाने कि कब भरोसा करना है और कब नहीं, तो परिणाम होता है एक चयनात्मक स्थिरता। निम्न जोखिम के निर्णयों को अधिक वैधता दी जाती है और हाई-स्पीड ऑपरेशनों में गलतियों को कम आंका जाता है, जहां मानव समीक्षा संरचनात्मिक रूप से असंभव है। यह किसी भी पक्ष और लाभ के लाइन में नहीं दिखाई देता, लेकिन वित्तीय वर्ष के दौरान निर्धारित निर्णयों की गुणवत्ता में अवश्य दिखाई देता है।
सुरक्षा की परत को प्रतिस्पर्धात्मक लाभ के रूप में देखना
एक गलत धारणा है कि एआई एजेंटों के लिए सुरक्षा प्रोटोकॉल एक नियामक बोझ हैं जो अपनाने में बाधा डालते हैं। डेटा इसका विपरीत संकेत करता है।
वे संस्थाएँ जो कंटेनमेंट आर्किटेक्चर में निवेश कर रही हैं, जिसमें बाहरी सत्यापन की परतें भी शामिल हैं, जो Google DeepMind और इसके भागीदारों के प्रोजेक्टों द्वारा मानकीकरण का लक्ष्य हैं, वे अधिक स्वतंत्र एजेंटों को कम परिचालन जोखिम के साथ संचालित करने के लिए खुद को तैयार कर रही हैं। यह तकनीकी परोपकार नहीं है: यह उच्चतम मूल्य के उपयोग केस को बढ़ाने का पूर्वापेक्षा है बिना कानूनी और प्रतिष्ठात्मक पासिव्स को जमा किए।
आर्थिक तर्क सीधा है। यदि एआई के 41% वित्तीय प्रश्न संभावित रूप से गलत आउटपुट उत्पन्न करते हैं, तो अवरोध के बिना संचालन करने की लागत स्वचालित लेन-देन की मात्रा के साथ बढ़ती है। कम स्केल पर, गलती को संभालना और सुधारना संभव है। हजारों लेन-देन-दिन के स्केल पर, यह एक प्रणालीगत पासिव में परिवर्तित हो जाता है। जो फर्म इस समस्या को हल करेंगी उससे पहले जब बाजार इसे नियमों के माध्यम से मांगता है, वे एक समय का लाभ प्राप्त करेंगी जिसे पीछे रह गई फर्म बाद में खरीदने में असमर्थ होंगी।
यह बाज़ार उस उत्पादक निराशा के चरण में है जो स्वायत्त एआई को अपनाने के चक्र के भीतर है: वह क्षण जब प्रारंभिक वादे परिचालन सीमाओं से टकराते हैं और समर्थन अवसंरचना बनाने के लिए मजबूर करते हैं, जो शुरुआत से ही होना चाहिए था। एक बार यह अवसंरचना बन जाने पर, यह न केवल जोखिमों को कम करती है: यह प्रणाली में नए एजेंटों को जोड़ने की सीमांत लागत को कम करती है, सुरक्षा को पैमाने का एक त्वरक बनाती है।
वे मॉडल जो विश्वसनीयता को एक उत्पाद की विशेषता के रूप में मानते हैं, न कि अनुपालन की एक लागत के रूप में, वही हैं जो कृत्रिम बुद्धिमत्ता को मानव मापदंड को बढ़ाने की अनुमति देंगे, न कि टीमों को अपनी गलतियों की पूर्ति करने के लिए मजबूर करेंगे।










