कृत्रिम बुद्धिमत्ता (AI): मानवी दोषांचे प्रतिबिंब निर्णयांमध्ये
अलिकडच्या संशोधनात कृत्रिम बुद्धिमत्तेचा (AI) एक मनोरंजक पण चिंताजनक पैलू समोर आला आहे: मानवी निर्णय प्रक्रियेत दिसतात, त्याचप्रमाणे AI मध्येही तर्कहीन प्रवृत्ती दिसून येतात. या खुलासामुळे AI हे एक वस्तुनिष्ठ आणि निःपक्षपाती साधन आहे, ही पारंपरिक धारणा मोडीत निघते आणि विविध ऍप्लिकेशन्समध्ये त्याच्या व्यावहारिक उपयुक्ततेचे पुनर्मूल्यांकन करण्यास प्रवृत्त करते.
‘मॅन्युफॅक्चरिंग अँड सर्विस ऑपरेशन्स मॅनेजमेंट’ या प्रतिष्ठित जर्नलमध्ये प्रकाशित झालेल्या एका अभ्यासात, ChatGPT या प्रमुख AI प्रणालीचे मानवी मानसशास्त्रातील अनेक संज्ञानात्मक पूर्वाग्रहांनुसार (cognitive biases) बारकाईने परीक्षण केले गेले. या अभ्यासात असे दिसून आले की ChatGPT ने जवळजवळ निम्म्या परिस्थितीत तर्कहीन निर्णय घेतले. यांमध्ये हॉट हँड फॅलसी (hot hand fallacy), बेस-रेट निग्लेक्ट (base-rate neglect) आणि सनक कॉस्ट फॅलसी (sunk cost fallacy) यांसारख्या अनेक पूर्वाग्रहांचा समावेश आहे, ज्यामुळे गंभीर निर्णय घेण्याच्या संदर्भात AI च्या विश्वासार्हतेबद्दल आणि योग्यतेबद्दल महत्त्वपूर्ण चिंता वाढल्या आहेत.
AI मध्ये मानवासारख्या त्रुटी
कॅनडा आणि ऑस्ट्रेलियामधील पाच प्रतिष्ठित शैक्षणिक संस्थांमधील तज्ञांच्या गटाने हे संशोधन केले. त्यांनी OpenAI च्या GPT-3.5 आणि GPT-4 चे मूल्यांकन केले, जे ChatGPT ला शक्ती देणारे मूलभूत मोठे भाषिक मॉडेल (LLMs) आहेत. या अभ्यासाच्या विश्लेषणात असे दिसून आले की, LLMs त्यांच्या युक्तिवाद प्रक्रियेत "प्रभावी सातत्य" दर्शवतात, तरीही ते मानवी दोषांपासून आणि पूर्वाग्रहांपासून पूर्णपणे मुक्त नाहीत.
लेखकांनी यावर प्रकाश टाकला की AI प्रणालीमध्ये हे उपजत सातत्य फायदे आणि तोटे दोन्हीpresent करते. जेव्हा स्पष्ट, सूत्रबद्ध उपाय असलेल्या कामांसाठी सातत्य उपयुक्त ठरू शकते, परंतु व्यक्तिनिष्ठ किंवा प्राधान्य-आधारित निर्णयांसाठी ते धोके निर्माण करू शकते. अशा परिस्थितीत, AI द्वारे मानवी पूर्वाग्रहांचे अनुकरण केल्याने सदोष परिणाम आणि विषम निष्कर्ष मिळू शकतात.
या अभ्यासाचे प्रमुख लेखक आणि आयव्ही बिझनेस स्कूलमधील ऑपरेशन्स मॅनेजमेंटचे सहाय्यक प्राध्यापक यांग चेन यांनी AI साधनांचा योग्य वापर करण्याच्या महत्त्वावर जोर दिला. त्यांनी इशारा दिला की AI अचूक गणना आणि तार्किक युक्तिवादाची आवश्यकता असलेल्या कामांमध्ये उत्कृष्ट आहे, परंतु व्यक्तिनिष्ठ निर्णय प्रक्रियेत त्याचा वापर करताना काळजीपूर्वक विचार करणे आणि दक्षता बाळगणे आवश्यक आहे.
AI मध्ये मानवी पूर्वाग्रहांचे अनुकरण
AI प्रणालीमध्ये मानवी पूर्वाग्रहांची उपस्थिती तपासण्यासाठी, संशोधकांनी मानवी पूर्वाग्रहांना प्रतिबिंबित करणाऱ्या अनेक प्रयोगांची रचना केली, ज्यात धोका टाळणे (risk aversion), अति आत्मविश्वास (overconfidence) आणि एंडोमेंट इफेक्ट (endowment effect) यांचा समावेश होता. त्यांनी ChatGPT ला हे bias trigger करण्यासाठी तयार केलेले प्रश्न (prompts) दिले आणि AI मानवांप्रमाणेच संज्ञानात्मक जाळ्यात अडकतो का, हे पाहण्यासाठी त्याच्या उत्तरांचे बारकाईने विश्लेषण केले.
शास्त्रज्ञांनी LLMs ला पारंपरिक मानसशास्त्र प्रयोगांवर आधारित काल्पनिक प्रश्न विचारले. हे प्रश्न खरे व्यावसायिक ऍप्लिकेशन्सच्या संदर्भात तयार केले गेले होते, ज्यात इन्व्हेंटरी व्यवस्थापन (inventory management) आणि पुरवठादार यांच्याशी वाटाघाटी (supplier negotiations) यांसारख्या क्षेत्रांचा समावेश होता. AI मानवी पूर्वाग्रहांचे अनुकरण करेल की नाही आणि विविध व्यावसायिक क्षेत्रांमध्ये या पूर्वाग्रहांना बळी पडण्याची शक्यता कायम राहील का, हे निश्चित करणे हा उद्देश होता.
या प्रयोगांचे निष्कर्ष दर्शवतात की GPT-4 ने GPT-3.5 पेक्षा अधिक चांगले काम केले, कारण GPT-4 ने स्पष्ट गणिताची उत्तरे देणाऱ्या समस्या अधिक चांगल्या प्रकारे सोडवल्या. संभाव्यता (probability) गणना आणि तार्किक युक्तिवादाची (logical reasoning) आवश्यकता असलेल्या परिस्थितीत GPT-4 मध्ये कमी त्रुटी आढळल्या. तथापि, व्यक्तिनिष्ठ परिस्थितीत, जसे की नफा मिळवण्यासाठी धोका पत्करायचा की नाही हे ठरवताना, चॅटबॉटने अनेकदा मानवांप्रमाणेच तर्कहीन प्राधान्ये दर्शविली.
AI ची निश्चिततेसाठी असलेली ओढ
विशेष म्हणजे, अभ्यासात असे दिसून आले की "GPT-4 मानवांपेक्षाही निश्चिततेला अधिक प्राधान्य देते." या निरीक्षणावरून हे स्पष्ट होते की AI संदिग्ध (ambiguous) कामांचा सामना करताना सुरक्षित आणि अधिक predictable परिणामांना (outcomes) अधिक महत्त्व देते. निश्चिततेकडे असलेला हा कल काही विशिष्ट परिस्थितीत फायदेशीर ठरू शकतो, परंतु त्यामुळे AI ची नवीन उपाय शोधण्याची किंवा अप्रत्याशित परिस्थितीत जुळवून घेण्याची क्षमता मर्यादित होऊ शकते.
महत्वाचे म्हणजे, चॅटबॉट्सचे वर्तन लक्षणीयरीत्या consistent राहिले, मग प्रश्न अमूर्त मानसशास्त्रीय समस्या म्हणून विचारले गेले असोत किंवा operational business processes म्हणून. यावरून असे सूचित होते की bias केवळ लक्षात ठेवलेल्या उदाहरणांचा परिणाम नाही, तर AI प्रणाली कशा प्रकारे तर्क करतात आणि माहिती process करतात याचा तो एक आंतरिक भाग आहे. अभ्यासाच्या निष्कर्षांनुसार, AI द्वारे दर्शविलेले bias त्याच्या युक्तिवाद यंत्रणेत (reasoning mechanisms) एम्बेड केलेले आहेत.
या अभ्यासातील सर्वात धक्कादायक खुलाशांपैकी एक म्हणजे GPT-4 ने काहीवेळा मानवासारख्या चुका कशा वाढवल्या. कन्फर्मेशन bias (confirmation bias tasks) मध्ये, GPT-4 ने सातत्याने biased प्रतिसाद दिले. याव्यतिरिक्त, GPT 3.5 च्या तुलनेत हॉट-हँड फॅलसीकडे (hot-hand fallacy) त्याचा अधिक स्पष्ट कल होता, जो randomness मध्ये patterns शोधण्याची अधिक प्रवृत्ती दर्शवतो.
Bias टाळण्याची उदाहरणे
विशेष म्हणजे, ChatGPT ने बेस-रेट निग्लेक्ट (base-rate neglect) आणि सनक कॉस्ट फॅलसी (sunk-cost fallacy) यांसारख्या काही सामान्य मानवी bias टाळण्याची क्षमता दर्शविली. बेस-रेट निग्लेक्ट तेव्हा घडते जेव्हा लोक उपाख्यानात्मक (anecdotal) किंवा विशिष्ट माहितीच्या बाजूने सांख्यिकीय तथ्यांकडे (statistical facts) दुर्लक्ष करतात. सनक कॉस्ट फॅलसी तेव्हा उद्भवते जेव्हा निर्णय घेणे हे आधीच झालेल्या खर्चाने (costs) अनावश्यकपणे प्रभावित होते, ज्यामुळे rational judgment अस्पष्ट होते.
लेखकांचे म्हणणे आहे की ChatGPT चे मानवासारखे bias त्याच्या training data मुळे आहेत, ज्यात मानवांनी दर्शवलेले संज्ञानात्मक bias आणि heuristics समाविष्ट आहेत. plausible उत्तरांना rational उत्तरांपेक्षा अधिक प्राधान्य दिले जाते, तेव्हा fine-tuning process दरम्यान या प्रवृत्ती अधिक வலுப்படுத்த होतात. संदिग्ध कामांचा सामना करताना, AI केवळ direct logic वर अवलंबून न राहता मानवी तर्क पद्धतीकडे अधिक आकर्षित होतो.
AI च्या Bias मधून मार्ग काढणे
AI च्या bias शी संबंधित धोके कमी करण्यासाठी, संशोधकांनी त्याच्या वापरासाठी सावध दृष्टिकोन ठेवण्याची वकिली केली आहे. AI चा उपयोग अशा क्षेत्रांमध्ये केला पाहिजे जिथे त्याची strength आहे, जसे की अचूकता आणि unbiased calculations आवश्यक असलेली कार्ये, जशी calculator करतो. तथापि, जेव्हा निकाल व्यक्तिनिष्ठ किंवा धोरणात्मक इनपुटवर (strategic inputs) अवलंबून असतो, तेव्हा मानवी देखरेख (human oversight) अत्यंत आवश्यक ठरते.
चेन जोर देऊन सांगतात की "जर तुम्हाला अचूक, unbiased निर्णय समर्थन हवे असेल, तर GPT चा वापर अशा क्षेत्रांमध्ये करा जिथे तुम्ही calculator वर विश्वास ठेवता." ते पुढे असेही सांगतात की जेव्हा AI चा वापर सूक्ष्म निर्णय आणि धोरणात्मक विचार आवश्यक असलेल्या संदर्भांमध्ये केला जातो, तेव्हा ज्ञात bias दुरुस्त करण्यासाठी वापरकर्ता prompts adjust करणे यासारख्या मानवी हस्तक्षेपाची आवश्यकता असते.
कॅनडा येथील मॅकमास्टर युनिव्हर्सिटीमधील (McMaster University) मनुष्यबळ आणि व्यवस्थापनाच्या सहयोगी प्राध्यापिका मीना एंडियाप्पन AI ला महत्त्वाचे निर्णय घेणारा कर्मचारी मानण्याची वकिली करतात. AI चा वापर जबाबदारीने आणि प्रभावीपणे केला जाईल याची खात्री करण्यासाठी देखरेख आणि नैतिक मार्गदर्शक तत्त्वांची (ethical guidelines) गरज आहे, असे त्या नमूद करतात. असे मार्गदर्शन देण्यात अयशस्वी झाल्यास, निर्णय प्रक्रियेत सुधारणा करण्याऐवजी सदोष विचार प्रणालीचे ऑटोमेशन (automation of flawed thinking) होऊ शकते.
परिणाम आणि विचार
या अभ्यासाच्या निष्कर्षांचा AI प्रणालीच्या विकास आणि विविध क्षेत्रांमध्ये deployment वर (उपयोजन) सखोल परिणाम होतो. AI मानवासारख्या bias ला बळी पडतो या खुलासामुळे विशिष्ट कामांसाठी त्याची योग्यता काळजीपूर्वक तपासणे आणि संभाव्य धोके कमी करण्यासाठी सुरक्षा उपाय (safeguards) लागू करणे किती महत्त्वाचे आहे, हे अधोरेखित होते.
निर्णय घेण्यासाठी AI वर अवलंबून असलेल्या संस्थांनी bias ची शक्यता लक्षात घेतली पाहिजे आणि त्यावर मात करण्यासाठी पावले उचलली पाहिजेत. यामध्ये bias कमी करण्यासाठी अतिरिक्त training data प्रदान करणे, bias प्रवण नसलेल्या algorithms चा वापर करणे किंवा AI निर्णय योग्य आणि अचूक आहेत याची खात्री करण्यासाठी मानवी देखरेख लागू करणे समाविष्ट असू शकते.
हा अभ्यास AI bias च्या कारणांचा आणि परिणामांचा अधिक सखोल अभ्यास करण्याची गरज अधोरेखित करतो. AI प्रणालींमध्ये bias कसे विकसित होतात याबद्दल अधिक माहिती मिळवून, आपण त्यांना प्रथमपासून रोखण्यासाठी धोरणे विकसित करू शकतो.
जबाबदार AI अंमलबजावणीसाठी शिफारसी
AI प्रणालींची जबाबदार आणि प्रभावी अंमलबजावणी सुनिश्चित करण्यासाठी, खालील शिफारसी विचारात घेतल्या पाहिजेत:
- Deployment पूर्वी AI प्रणालींचे संभाव्य bias साठी पूर्णपणे मूल्यांकन करा. यामध्ये AI प्रणाली bias प्रवण असू शकतील अशा क्षेत्रांना ओळखण्यासाठी विविध datasets आणि परिस्थितीत तिची testing करणे समाविष्ट आहे.
- Bias कमी करण्यासाठी अतिरिक्त training data प्रदान करा. training data जितका अधिक वैविध्यपूर्ण आणि प्रातिनिधिक असेल, तितकी AI प्रणाली bias विकसित होण्याची शक्यता कमी होते.
- Bias प्रवण नसलेल्या algorithms चा वापर करा. काही algorithms इतरांपेक्षा bias साठी अधिक संवेदनशील असतात. विशिष्ट कार्यासाठी algorithm निवडताना, bias ची शक्यता विचारात घेणे महत्त्वाचे आहे.
- AI निर्णय निष्पक्ष आणि अचूक आहेत याची खात्री करण्यासाठी मानवी देखरेख (human oversight) लागू करा. मानवी देखरेख AI निर्णयांमध्ये असलेले कोणतेही bias ओळखण्यास आणि ते दुरुस्त करण्यास मदत करू शकते.
- AI च्या वापरासाठी स्पष्ट नैतिक मार्गदर्शक तत्त्वे (ethical guidelines) स्थापित करा. या मार्गदर्शक तत्त्वांमध्ये निष्पक्षता, उत्तरदायित्व (accountability) आणि पारदर्शकता (transparency) यांसारख्या समस्यांचा समावेश असावा.
या शिफारसींचे पालन करून, संस्था हे सुनिश्चित करू शकतात की AI प्रणालींचा उपयोग फायदेशीर आणि जबाबदार रीतीने केला जाईल. या संशोधनातून मिळालेले अंतर्दृष्टी एक मौल्यवान reminder म्हणून काम करतात की AI मध्ये प्रचंड क्षमता असली तरी, त्याच्या अंमलबजावणीकडे सावधगिरीने आणि नैतिक तत्त्वांच्या बांधिलकीने संपर्क साधणे महत्त्वाचे आहे. तरच आपण AI ची पूर्ण क्षमता वापरू शकतो आणि संभाव्य धोक्यांपासून स्वतःचे संरक्षण करू शकतो.