हाल के अनुसंधानों ने कृत्रिम बुद्धिमत्ता (Artificial Intelligence, AI) का एक आकर्षक लेकिन चिंताजनक पहलू सामने लाया है: मानव निर्णय लेने में देखी गई तर्कहीन प्रवृत्तियों के प्रति इसकी संवेदनशीलता। यह रहस्योद्घाटन AI को एक उद्देश्यपूर्ण और निष्पक्ष उपकरण के रूप में पारंपरिक धारणा को चुनौती देता है, जिससे विविध अनुप्रयोगों में इसकी व्यावहारिक उपयोगिता का पुनर्मूल्यांकन होता है।
एक अभूतपूर्व अध्ययन ने ChatGPT के व्यवहार की सावधानीपूर्वक जांच की, जो एक प्रमुख AI प्रणाली है, जो मानव मनोविज्ञान में प्रचलित संज्ञानात्मक पूर्वाग्रहों के एक स्पेक्ट्रम में है। Manufacturing & Service Operations Management नामक प्रतिष्ठित पत्रिका में प्रकाशित निष्कर्षों से पता चला कि ChatGPT ने मूल्यांकित परिदृश्यों में से लगभग आधे में कई तर्कहीन निर्णय लेने के पैटर्न प्रदर्शित किए। इन पैटर्नों में हॉट हैंड फैलेसी (hot hand fallacy), बेस-रेट नेगलेक्ट (base-rate neglect) और सनक कॉस्ट फैलेसी (sunk cost fallacy) जैसे अच्छी तरह से प्रलेखित पूर्वाग्रह शामिल हैं, जो महत्वपूर्ण निर्णय लेने के संदर्भों में AI की विश्वसनीयता और उपयुक्तता के बारे में महत्वपूर्ण चिंताएं बढ़ाते हैं।
AI में मानव जैसी कमियों का अनावरण
कनाडा और ऑस्ट्रेलिया में फैले पांच प्रतिष्ठित शैक्षणिक संस्थानों के विशेषज्ञों के एक संघ द्वारा किए गए शोध ने OpenAI के GPT-3.5 और GPT-4 के प्रदर्शन का कड़ाई से मूल्यांकन किया, जो कि बड़े भाषा मॉडल (Large Language Models, LLMs) हैं जो ChatGPT को शक्ति प्रदान करते हैं। अध्ययन के व्यापक विश्लेषण से पता चला है कि इन LLMs द्वारा उनकी तर्क प्रक्रियाओं में प्रदर्शित “प्रभावशाली स्थिरता” के बावजूद, वे मानव जैसी खामियों और पूर्वाग्रहों से दूर हैं।
लेखकों ने चतुराई से प्रकाश डाला कि AI सिस्टम के भीतर यह अंतर्निहित स्थिरता फायदे और नुकसान दोनों प्रस्तुत करती है। जबकि स्थिरता स्पष्ट, सूत्रबद्ध समाधानों वाले कार्यों को सुव्यवस्थित कर सकती है, यह व्यक्तिपरक या वरीयता-संचालित निर्णयों पर लागू होने पर संभावित जोखिम पैदा करती है। ऐसे परिदृश्यों में, AI द्वारा मानव पूर्वाग्रहों की प्रतिकृति से त्रुटिपूर्ण परिणाम और विषम परिणाम हो सकते हैं।
अध्ययन के प्रमुख लेखक और प्रतिष्ठित आइवे बिजनेस स्कूल (Ivey Business School) में संचालन प्रबंधन के सहायक प्रोफेसर यांग चेन (Yang Chen) ने AI उपकरणों के उपयुक्त अनुप्रयोगों को समझने के महत्व को रेखांकित किया। उन्होंने चेतावनी दी कि जबकि AI सटीक गणना और तार्किक तर्क की आवश्यकता वाले कार्यों में उत्कृष्टता प्राप्त करता है, व्यक्तिपरक निर्णय लेने की प्रक्रियाओं में इसके अनुप्रयोग के लिए सावधानीपूर्वक विचार और सतर्क निगरानी की आवश्यकता होती है।
AI में मानव पूर्वाग्रहों का अनुकरण
AI सिस्टम के भीतर मानव पूर्वाग्रहों की उपस्थिति का पता लगाने के लिए, शोधकर्ताओं ने प्रयोगों की एक श्रृंखला तैयार की जो जोखिम से बचने (risk aversion), आत्मविश्वास (overconfidence) और बंदोबस्ती प्रभाव (endowment effect) सहित सामान्य रूप से ज्ञात मानव पूर्वाग्रहों को दर्शाती है। उन्होंने इन पूर्वाग्रहों को ट्रिगर करने के लिए डिज़ाइन किए गए संकेतों के साथ ChatGPT को प्रस्तुत किया और यह निर्धारित करने के लिए AI की प्रतिक्रियाओं का सावधानीपूर्वक विश्लेषण किया कि क्या यह मनुष्यों के समान संज्ञानात्मक जालों का शिकार होगा।
वैज्ञानिकों ने LLMs से पारंपरिक मनोविज्ञान प्रयोगों से अनुकूलित काल्पनिक प्रश्न पूछे। इन प्रश्नों को वास्तविक दुनिया के वाणिज्यिक अनुप्रयोगों के संदर्भ में तैयार किया गया था, जिसमें इन्वेंट्री प्रबंधन (inventory management) और आपूर्तिकर्ता वार्ता (supplier negotiations) जैसे क्षेत्र शामिल थे। उद्देश्य यह पता लगाना था कि क्या AI मानव पूर्वाग्रहों का अनुकरण करेगा और क्या इन पूर्वाग्रहों के प्रति इसकी संवेदनशीलता विभिन्न व्यावसायिक क्षेत्रों में बनी रहेगी।
परिणामों से पता चला कि GPT-4 ने अपने पूर्ववर्ती GPT-3.5 को स्पष्ट गणितीय समाधानों वाली समस्याओं को हल करने में बेहतर प्रदर्शन किया। GPT-4 ने उन परिदृश्यों में कम त्रुटियां प्रदर्शित कीं जिनमें संभाव्यता गणना और तार्किक तर्क की आवश्यकता थी। हालांकि, व्यक्तिपरक सिमुलेशन में, जैसे कि लाभ सुरक्षित करने के लिए जोखिम भरे विकल्प को आगे बढ़ाना है या नहीं, चैटबॉट अक्सर मनुष्यों द्वारा प्रदर्शित तर्कहीन वरीयताओं को दर्शाता है।
निश्चितता के लिए AI की प्राथमिकता
विशेष रूप से, अध्ययन में पता चला है कि "GPT-4 मनुष्यों की तुलना में निश्चितता के लिए अधिक मजबूत वरीयता दिखाता है।" यह अवलोकन अस्पष्ट कार्यों का सामना करने पर AI की सुरक्षित और अधिक पूर्वानुमानित परिणामों का समर्थन करने की प्रवृत्ति को रेखांकित करता है। निश्चितता की ओर झुकाव कुछ स्थितियों में फायदेमंद हो सकता है, लेकिन यह AI की नवीन समाधानों का पता लगाने या अप्रत्याशित परिस्थितियों के अनुकूल होने की क्षमता को भी सीमित कर सकता है।
महत्वपूर्ण रूप से, चैटबॉट के व्यवहार उल्लेखनीय रूप से सुसंगत रहे, भले ही प्रश्न अमूर्त मनोवैज्ञानिक समस्याओं या परिचालन व्यावसायिक प्रक्रियाओं के रूप में प्रस्तुत किए गए थे। यह स्थिरता बताती है कि देखे गए पूर्वाग्रह केवल याद किए गए उदाहरणों का परिणाम नहीं थे, बल्कि AI सिस्टम के तर्क और जानकारी को संसाधित करने के तरीके का एक आंतरिक पहलू थे। अध्ययन ने निष्कर्ष निकाला कि AI द्वारा प्रदर्शित पूर्वाग्रह इसकी तर्क तंत्र के भीतर एम्बेडेड हैं।
अध्ययन के सबसे चौंकाने वाले खुलासे में से एक वह तरीका था जिसमें GPT-4 ने कभी-कभी मानव जैसी त्रुटियों को बढ़ाया। पुष्टिकरण पूर्वाग्रह कार्यों में, GPT-4 ने लगातार पक्षपातपूर्ण प्रतिक्रियाएं दीं। इसके अलावा, इसने GPT 3.5 की तुलना में हॉट-हैंड फैलेसी की ओर अधिक स्पष्ट झुकाव प्रदर्शित किया, जो यादृच्छिकता में पैटर्न को समझने की मजबूत प्रवृत्ति को दर्शाता है।
पूर्वाग्रह से बचने के उदाहरण
दिलचस्प बात यह है कि ChatGPT ने कुछ सामान्य मानव पूर्वाग्रहों को रोकने की क्षमता का प्रदर्शन किया, जिसमें बेस-रेट नेगलेक्ट और सनक-कॉस्ट फैलेसी शामिल हैं। बेस-रेट नेगलेक्ट तब होता है जब व्यक्ति उपाख्यानात्मक या मामले-विशिष्ट जानकारी के पक्ष में सांख्यिकीय तथ्यों की उपेक्षा करते हैं। सनक-कॉस्ट फैलेसी तब उत्पन्न होती है जब निर्णय लेने पर उन लागतों से अनुचित प्रभाव पड़ता है जो पहले ही लग चुकी हैं, जिससे तर्कसंगत निर्णय अस्पष्ट हो जाता है।
लेखकों का मानना है कि ChatGPT के मानव-जैसे पूर्वाग्रह उस प्रशिक्षण डेटा से उत्पन्न होते हैं जिसके संपर्क में वह आता है, जिसमें संज्ञानात्मक पूर्वाग्रह और हेरिस्टिक शामिल हैं जो मनुष्य प्रदर्शित करते हैं। इन प्रवृत्तियों को ठीक-ट्यूनिंग प्रक्रिया के दौरान और मजबूत किया जाता है, खासकर जब मानव प्रतिक्रिया तर्कसंगत लोगों की तुलना में प्रशंसनीय प्रतिक्रियाओं को प्राथमिकता देती है। अस्पष्ट कार्यों का सामना करने पर, AI सीधे तर्क पर भरोसा करने के बजाय मानव तर्क पैटर्न की ओर आकर्षित होता है।
AI के पूर्वाग्रहों को नेविगेट करना
AI के पूर्वाग्रहों से जुड़े जोखिमों को कम करने के लिए, शोधकर्ताओं ने इसके अनुप्रयोग के लिए एक विवेकपूर्ण दृष्टिकोण की वकालत की। वे अनुशंसा करते हैं कि AI को उन क्षेत्रों में नियोजित किया जाए जहां इसकी ताकत निहित है, जैसे कि वे कार्य जो सटीकता और निष्पक्ष गणना की मांग करते हैं, जैसे कि एक कैलकुलेटर द्वारा किए गए कार्य। हालांकि, जब परिणाम व्यक्तिपरक या रणनीतिक इनपुट पर निर्भर करता है, तो मानव निरीक्षण सर्वोपरि हो जाता है।
चेन (Chen) का जोर है कि "यदि आप सटीक, निष्पक्ष निर्णय समर्थन चाहते हैं, तो GPT का उपयोग उन क्षेत्रों में करें जहां आप पहले से ही कैलकुलेटर पर भरोसा करते हैं।" वह आगे सुझाव देते हैं कि AI का उपयोग उन संदर्भों में किया जाता है जिनके लिए सूक्ष्म निर्णय और रणनीतिक सोच की आवश्यकता होती है, ज्ञात पूर्वाग्रहों को ठीक करने के लिए उपयोगकर्ता संकेतों को समायोजित करने जैसे मानव हस्तक्षेप आवश्यक हैं।
मैकमास्टर विश्वविद्यालय (McMaster University) में मानव संसाधन और प्रबंधन के सह-लेखक और एसोसिएट प्रोफेसर मीना एंडियाप्पन (Meena Andiappan) कनाडा में AI को एक कर्मचारी के रूप में मानने की वकालत करते हैं जो महत्वपूर्ण निर्णय लेता है। वह यह सुनिश्चित करने के लिए निरीक्षण और नैतिक दिशानिर्देशों की आवश्यकता पर जोर देती है कि AI का उपयोग जिम्मेदारी और प्रभावी ढंग से किया जाए। ऐसा मार्गदर्शन प्रदान करने में विफलता से निर्णय लेने की प्रक्रियाओं में वांछित सुधार के बजाय त्रुटिपूर्ण सोच का स्वचालन हो सकता है।
निहितार्थ और विचार
अध्ययन के निष्कर्षों का विविध क्षेत्रों में AI सिस्टम के विकास और तैनाती पर गहरा प्रभाव पड़ता है। यह रहस्योद्घाटन कि AI मानव-जैसे पूर्वाग्रहों के प्रति संवेदनशील है, विशिष्ट कार्यों के लिए इसकी उपयुक्तता का सावधानीपूर्वक मूल्यांकन करने और संभावित जोखिमों को कम करने के लिए सुरक्षा उपायों को लागू करने के महत्व को रेखांकित करता है।
निर्णय लेने के लिए AI पर निर्भर रहने वाले संगठनों को पूर्वाग्रह की संभावना के बारे में पता होना चाहिए और इसे दूर करने के लिए कदम उठाने चाहिए। इसमें पूर्वाग्रह को कम करने के लिए अतिरिक्त प्रशिक्षण डेटा प्रदान करना, ऐसे एल्गोरिदम का उपयोग करना जो पूर्वाग्रह के लिए कम प्रवण हैं, या यह सुनिश्चित करने के लिए मानव निरीक्षण लागू करना शामिल हो सकता है कि AI निर्णय निष्पक्ष और सटीक हैं।
अध्ययन AI पूर्वाग्रह के कारणों और परिणामों में आगे अनुसंधान की आवश्यकता पर भी प्रकाश डालता है। AI सिस्टम कैसे पूर्वाग्रह विकसित करते हैं, इसकी बेहतर समझ प्राप्त करके, हम उन्हें पहले स्थान पर होने से रोकने के लिए रणनीतियों का विकास कर सकते हैं।
जिम्मेदार AI कार्यान्वयन के लिए सिफारिशें
AI सिस्टम के जिम्मेदार और प्रभावी कार्यान्वयन को सुनिश्चित करने के लिए, निम्नलिखित सिफारिशों पर विचार किया जाना चाहिए:
- तैनाती से पहले संभावित पूर्वाग्रहों के लिए AI सिस्टम का अच्छी तरह से मूल्यांकन करें। इसमें किसी भी ऐसे क्षेत्र की पहचान करने के लिए विभिन्न डेटासेट और परिदृश्यों पर AI सिस्टम का परीक्षण करना शामिल है जहां यह पूर्वाग्रह के लिए प्रवण हो सकता है।
- पूर्वाग्रह को कम करने के लिए अतिरिक्त प्रशिक्षण डेटा प्रदान करें। प्रशिक्षण डेटा जितना अधिक विविध और प्रतिनिधि होगा, AI सिस्टम के पूर्वाग्रह विकसित करने की संभावना उतनी ही कम होगी।
- ऐसे एल्गोरिदम का उपयोग करें जो पूर्वाग्रह के लिए कम प्रवण हैं। कुछ एल्गोरिदम दूसरों की तुलना में पूर्वाग्रह के लिए अधिक संवेदनशील होते हैं। किसी विशेष कार्य के लिए एल्गोरिदम का चयन करते समय, पूर्वाग्रह की इसकी क्षमता पर विचार करना महत्वपूर्ण है।
- यह सुनिश्चित करने के लिए मानव निरीक्षण लागू करें कि AI निर्णय निष्पक्ष और सटीक हैं। मानव निरीक्षण AI निर्णयों में किसी भी पूर्वाग्रह की पहचान करने और उसे ठीक करने में मदद कर सकता है।
- AI के उपयोग के लिए स्पष्ट नैतिक दिशानिर्देश स्थापित करें। इन दिशानिर्देशों में निष्पक्षता, जवाबदेही और पारदर्शिता जैसे मुद्दों को संबोधित किया जाना चाहिए।
इन सिफारिशों का पालन करके, संगठन यह सुनिश्चित कर सकते हैं कि AI सिस्टम का उपयोग इस तरह से किया जाए जो फायदेमंद और जिम्मेदार दोनों हो। इस शोध से प्राप्त अंतर्दृष्टि एक मूल्यवान अनुस्मारक के रूप में काम करती है कि जबकि AI में अपार संभावनाएं हैं, इसके कार्यान्वयन को सावधानी और नैतिक सिद्धांतों के प्रति प्रतिबद्धता के साथ अपनाना महत्वपूर्ण है। तभी हम AI की पूरी क्षमता का उपयोग कर सकते हैं जबकि इसकी संभावित कमियों से सुरक्षित रह सकते हैं।