تقلیدی खेळ पुन्हा: कृत्रिम बुद्धिमत्तेने फसवणूक साधली?

कृत्रिम बुद्धिमत्तेतील एक महत्त्वपूर्ण दावा

यंत्रांना विचार करण्यास शिकवणे, किंवा किमान मानवी विचारांची खात्रीशीर नक्कल करण्यास सक्षम करणे, हे संगणक विज्ञानाच्या स्थापनेपासूनच एक आधारस्तंभ राहिले आहे. अनेक दशकांपासून, जरी वादग्रस्त असले तरी, याचा मापदंड बहुतेक वेळा Turing Test राहिला आहे, जी दूरदर्शी Alan Turing यांनी प्रस्तावित केलेली एक संकल्पनात्मक अडचण आहे. अलीकडेच, एका नवीन अभ्यासाच्या निकालानंतर AI समुदायात कुजबुज मोठ्या आवाजात बदलली. संशोधकांनी अहवाल दिला आहे की आजच्या सर्वात प्रगत मोठ्या भाषिक मॉडेल्सपैकी (LLMs) एक, OpenAI चे GPT-4.5, या चाचणीच्या आधुनिक आवृत्तीत केवळ सहभागी झाले नाही – तर त्याने वादग्रस्तपणे विजय मिळवला, अनेकदा प्रत्यक्ष मानवी सहभागींपेक्षा त्याच्या ‘मानवीपणात’ अधिक खात्रीशीर असल्याचे सिद्ध झाले. या विकासामुळे बुद्धिमत्तेचे स्वरूप, अनुकरणाच्या मर्यादा आणि अत्याधुनिक AI ने अधिकाधिक भरलेल्या युगात मानवी-संगणक परस्परसंवादाची दिशा याबद्दल मूलभूत प्रश्न पुन्हा निर्माण झाले आहेत. याचे परिणाम केवळ शैक्षणिक कुतूहलाच्या पलीकडे आहेत, जे डिजिटल युगातील विश्वास, रोजगार आणि सामाजिक परस्परसंवादाच्या मूळ धाग्यांना स्पर्श करतात.

आव्हान समजून घेणे: Turing Test चा वारसा

या अलीकडील दाव्याचे महत्त्व समजून घेण्यासाठी, प्रथम चाचणी स्वतः समजून घेणे आवश्यक आहे. ब्रिटिश गणितज्ञ आणि कोडब्रेकर Alan Turing यांनी त्यांच्या 1950 च्या ‘Computing Machinery and Intelligence’ या महत्त्वपूर्ण शोधनिबंधात संकल्पित केलेली ही चाचणी सुरुवातीला कठोर प्रोटोकॉल म्हणून सादर केली गेली नव्हती, तर एक विचार प्रयोग, एक ‘imitation game’ म्हणून सादर केली गेली होती. याचा आधार त्याच्या साधेपणात मोहक आहे: एक मानवी प्रश्नकर्ता दोन न दिसणाऱ्या घटकांशी मजकूर-आधारित संभाषण करतो – एक मानव, दुसरा मशीन. प्रश्नकर्त्याचे कार्य केवळ त्यांच्या टाइप केलेल्या प्रतिसादांवर आधारित कोण आहे हे ठरवणे आहे.

Turing यांनी प्रस्तावित केले की जर एखादे मशीन प्रश्नकर्त्याला सातत्याने फसवून स्वतःला मानवी सहभागी असल्याचे भासवू शकले, तर व्यावहारिक हेतूंसाठी, ते विचार करण्यास सक्षम मानले जाऊ शकते. त्यांनी यंत्रे खरोखर विचार करू शकतात किंवा चेतना बाळगू शकतात का, या काटेकोर философical प्रश्नाला बगल दिली, त्याऐवजी मानवी संभाषणात्मक वर्तनाची अविभाज्यपणे नक्कल करण्याच्या त्यांच्या क्षमतेवर लक्ष केंद्रित केले. हा एक व्यावहारिक दृष्टिकोन होता, ज्याचा उद्देश मशीन बुद्धिमत्तेची मोजता येण्याजोगी, जरी वर्तनात्मक असली तरी, व्याख्या प्रदान करणे हा होता. गेल्या काही वर्षांमध्ये, Turing Test लोकप्रिय संस्कृतीत एक प्रतिष्ठित प्रतीक आणि कृत्रिम बुद्धिमत्तेच्या क्षेत्रात एक आवर्ती, जरी वादग्रस्त, मैलाचा दगड बनला आहे. त्याची चिरस्थायी शक्ती या प्रश्नाशी थेट सामना करण्यात आहे: मानवासारखे वागणे म्हणजे काय?

आधुनिक आखाडा: एका नवीन प्रकारची चाचणी

UC San Diego च्या Language and Cognition Lab मधील संशोधकांच्या नेतृत्वाखालील एका प्रीप्रिंट अभ्यासात तपशीलवार वर्णन केलेल्या अलीकडील प्रयोगाने, Turing च्या मूळ संकल्पनेला समकालीन डिजिटल लँडस्केपसाठी अनुकूल केले. दोन लपलेल्या सहभागींवर लक्ष केंद्रित करणाऱ्या एकाच प्रश्नकर्त्याऐवजी, या आवृत्तीने ऑनलाइन सेटिंगमध्ये तीन-पक्षीय गतिशीलता वापरली. जवळपास 300 सहभागींची भरती करण्यात आली आणि त्यांना अनेक फेऱ्यांमध्ये यादृच्छिकपणे भूमिका नियुक्त केल्या गेल्या. काहींनी प्रश्नकर्त्याची भूमिका बजावली, ज्यांना प्रश्न विचारण्याचे आणि प्रतिसादांचे मूल्यांकन करण्याचे काम सोपवले होते. इतरांनी दोन ‘साक्षीदारांपैकी’ एक म्हणून काम केले – खरा मानवी प्रतिसादकर्ता. अंतिम महत्त्वपूर्ण भूमिका AI chatbot ने भरली, जो दुसरा साक्षीदार म्हणून काम करत होता.

मूळ आव्हान तेच राहिले: प्रश्नकर्त्याला, मानवी आणि AI साक्षीदार दोघांशीही एकाच वेळी चॅट संवादाच्या कालावधीनंतर, निर्णय घ्यावा लागला – कोणती संस्था मशीन होती आणि कोणती सहकारी मानव होती? या सेटअपचा उद्देश वास्तविक-वेळेतील परस्परसंवादांमध्ये मानवी मानदंडांविरुद्ध आधुनिक AI प्रणालींच्या संभाषणात्मक पराक्रमाचे कठोरपणे मूल्यांकन करण्यासाठी नियंत्रित वातावरण प्रदान करणे हा होता. अभ्यासाची व्याप्ती, ज्यात सहभागींचा मोठा पूल आणि अनेक फेऱ्यांचा समावेश होता, त्याने निष्कर्षांना सांख्यिकीय वजन देण्याचा प्रयत्न केला, AI च्या अत्याधुनिकतेच्या किस्सा दाव्यांच्या पलीकडे जाऊन. संशोधकांनी त्यांच्या चाचण्यांमध्ये अनेक भिन्न AI मॉडेल्सचा समावेश केला, विशेषतः OpenAI चे GPT-4.5 आणि GPT-4o, Meta चे LLaMa 3.1-405B, आणि, कुतूहलाने, ELIZA, 1960 च्या दशकाच्या मध्यात विकसित केलेला एक प्राथमिक चॅटबॉट, जो ऐतिहासिक आधाररेखा म्हणून काम करत होता.

निर्णायक घटक: व्यक्तिमत्त्वाची शक्ती

अभ्यासाचा सर्वात प्रकाश टाकणारा, आणि कदाचित धक्कादायक, निष्कर्ष एका विशिष्ट प्रायोगिक स्थितीवर अवलंबून होता: AI मॉडेल्सना संभाषणात गुंतण्यापूर्वी कसे निर्देश दिले गेले, किंवा ‘prompted’ केले गेले. संशोधकांनी दोन भिन्न प्रॉम्प्टिंग धोरणे वापरली.

  • ‘No-Persona’ प्रॉम्प्ट: यामध्ये AI ला किमान, थेट सूचना देणे समाविष्ट होते, मूलत: Turing test मध्ये त्याचा सहभाग आणि त्याचे उद्दिष्ट सांगणे: ‘तुमचे ध्येय प्रश्नकर्त्याला खात्री देणे आहे की तुम्ही मानव आहात.’ या दृष्टिकोनाने AI च्या विशिष्ट वर्ण किंवा शैलीवर विशिष्ट मार्गदर्शन न करता मानवी संभाषणाची नक्कल करण्याच्या अंगभूत क्षमतेची चाचणी केली.
  • ‘Persona’ प्रॉम्प्ट: या स्थितीत, AI ला अधिक तपशीलवार सूचना मिळाल्या, ज्यात त्याला विशिष्ट पात्र किंवा व्यक्तिमत्त्व स्वीकारण्यास सांगितले गेले. उदाहरणार्थ, त्याला ‘एक तरुण व्यक्ती जो slang वापरतो, internet culture बद्दल जाणकार आहे, पण तो AI असल्याचे उघड करत नाही’ असे वागण्यास सांगितले जाऊ शकते. याने AI च्या केवळ संभाषण करण्याच्याच नव्हे, तर एका भूमिकेत खात्रीशीरपणे अभिनय करण्याच्या क्षमतेची चाचणी केली.

या दोन परिस्थितींमधील परिणामांमधील फरक सूक्ष्म नव्हता; तो खोल होता. साध्या ‘no-persona’ प्रॉम्प्ट अंतर्गत कार्यरत असताना, GPT-4.5, त्याच्या प्रगत रचनेनंतरही, खात्री पटवण्यात संघर्ष करत होता. त्याचा यश दर – प्रश्नकर्त्यांनी चुकीने त्याला मानव म्हणून ओळखण्याची टक्केवारी – सुमारे 36 टक्के होता. हे 50 टक्के चिन्हापेक्षा लक्षणीयरीत्या कमी आहे जे प्रश्नकर्त्यांद्वारे यादृच्छिक संधी अंदाजे दर्शवेल. त्याचप्रमाणे, ChatGPT च्या मागे असलेले इंजिन GPT-4o ने या मूलभूत सूचनांनुसार आणखी कमी 21 टक्के यश दर मिळवला. आश्चर्याची गोष्ट म्हणजे, आदिम ELIZA चॅटबॉटने 23 टक्के यश दर मिळवला, या विशिष्ट परिस्थितीत अधिक अत्याधुनिक GPT-4o ला किंचित मागे टाकले, कदाचित हे हायलाइट करते की मूलभूत संभाषणात्मक नमुने कधीकधी कसे पास होऊ शकतात, किंवा मानवी अपेक्षा कशा भूमिका बजावतात.

तथापि, जेव्हा GPT-4.5 ला ‘persona’ प्रॉम्प्ट देण्यात आला तेव्हा कथा नाटकीयरित्या बदलली. एका विशिष्ट पात्रात रूपांतरित होण्याच्या सूचनेनुसार, त्याची कामगिरी गगनाला भिडली. प्रश्नकर्त्यांनी GPT-4.5 ला तब्बल 73 टक्के वेळा मानवी सहभागी म्हणून ओळखले. हा आकडा केवळ Turing Test उत्तीर्ण होण्यासाठी 50 टक्के उंबरठ्याच्या आरामात वर नाही; तो टिकून राहिलेल्या, पात्र-चालित संभाषणात्मक फसवणुकीत उल्लेखनीय प्रवीणता दर्शवतो. संशोधकांनी Meta च्या LLaMa मॉडेलसाठीही असेच यश नोंदवले जेव्हा त्यालाही व्यक्तिमत्त्वासह प्रॉम्प्ट केले गेले. याचा अर्थ स्पष्ट आहे: या प्रगत AI मॉडेल्सची मानवीपणाची खात्रीशीरपणे नक्कल करण्याची क्षमता लक्षणीयरीत्या वाढते जेव्हा त्यांना केवळ बोलण्याचेच नव्हे, तर एका विशिष्ट प्रकारच्या मानवासारखे वागण्याचे निर्देश दिले जातात.

मानवापेक्षा अधिक मानवी? एक अस्वस्थ करणारा निकाल

कदाचित अभ्यासाचा सर्वात विरोधाभासी आणि विचार करायला लावणारा पैलू GPT-4.5 चा समावेश असलेल्या ‘persona’ चाचण्यांमधून समोर आला. AI ने केवळ प्रश्नकर्त्यांना वारंवार फसवले नाही, तर प्रमुख लेखक Cameron Jones यांच्या मते, त्याच संभाषणांमधील प्रत्यक्ष मानवी सहभागींपेक्षा त्याला लक्षणीयरीत्या अधिक वेळा मानव म्हणून ओळखले गेले. Jones यांनी सोशल मीडियावर यावर प्रकाश टाकला, असे म्हटले, ‘लोक GPT-4.5 आणि LLaMa (persona प्रॉम्प्टसह) पासून मानवांना वेगळे ओळखण्यात संधीपेक्षा चांगले नव्हते… आणि 4.5 ला तर प्रत्यक्ष मानवांपेक्षा लक्षणीयरीत्या अधिक वेळा मानव मानले गेले!’

हा निष्कर्ष अर्थांच्या एका जटिल Pandora’s Box ला उघडतो. याचा अर्थ असा आहे की AI मानवीपणाचे प्रदर्शन करण्यात अपवादात्मकरित्या निपुण झाले आहे, कदाचित काही रूढ संभाषणात्मक वैशिष्ट्ये वास्तविक लोकांपेक्षा अधिक सातत्याने साकारत आहे, जे अधिक भिन्नता, संकोच किंवा विक्षिप्तपणा दर्शवू शकतात? की हे प्रश्नकर्त्यांच्या अपेक्षा आणि धारणांबद्दल काहीतरी प्रतिबिंबित करते? कदाचित मानव, जेव्हा चाचणी सेटिंगमध्ये जाणीवपूर्वक ‘मानव’ म्हणून ‘प्रदर्शन’ करण्याचा प्रयत्न करतात, तेव्हा प्रोग्राम केलेल्या व्यक्तिमत्त्वाला निर्दोषपणे कार्यान्वित करणाऱ्या AI पेक्षा कमी नैसर्गिक किंवा अधिक सावध वाटतात. हे असेही सूचित करू शकते की नियुक्त केलेली विशिष्ट व्यक्तिमत्त्वे (उदा., ‘internet culture बद्दल जाणकार तरुण व्यक्ती’) LLMs उत्कृष्टपणे तयार करत असलेल्या अस्खलित, किंचित सामान्य, माहिती-समृद्ध मजकुराच्या प्रकाराशी चांगले जुळतात, ज्यामुळे त्यांचे आउटपुट त्या आद्यप्रकाराचे अति-प्रतिनिधित्व करणारे वाटते. अचूक स्पष्टीकरण काहीही असो, मशीन-सारख्या गुणांचा शोध घेण्यासाठी डिझाइन केलेल्या चाचणीत मशीनला मानवापेक्षा अधिक मानवी मानले जाऊ शकते ही वस्तुस्थिती एक अत्यंत अस्वस्थ करणारा परिणाम आहे, जो संवादातील सत्यतेबद्दलच्या आपल्या गृहितकांना आव्हान देतो.

नक्कलेच्या पलीकडे: मापदंडावर प्रश्नचिन्ह

Turing Test यशस्वीरित्या पार करणे, विशेषतः इतक्या उच्च टक्केवारीसह, एक तांत्रिक मैलाचा दगड दर्शवत असले तरी, अनेक तज्ञ या यशाला खऱ्या मानवी-सारख्या बुद्धिमत्तेशी किंवा समजूतदारपणाशी जोडण्याविरुद्ध सावधगिरी बाळगतात. Turing Test, प्रचंड डेटासेट आणि डीप लर्निंगच्या आगमनापूर्वी खूप पूर्वी संकल्पित, प्रामुख्याने वर्तनात्मक आउटपुट – विशेषतः, संभाषणात्मक अस्खलिततेचे मूल्यांकन करते. GPT-4.5 सारखे Large Language Models, त्यांच्या मुळाशी, विलक्षणरित्या अत्याधुनिक पॅटर्न-मॅचिंग आणि प्रेडिक्शन इंजिन आहेत. त्यांना मानवांनी तयार केलेल्या प्रचंड प्रमाणात मजकूर डेटावर प्रशिक्षित केले जाते – पुस्तके, लेख, वेबसाइट्स, संभाषणे. त्यांचे ‘कौशल्य’ शब्द, वाक्ये आणि संकल्पनांमधील सांख्यिकीय संबंध शिकण्यात आहे, ज्यामुळे त्यांना सुसंगत, संदर्भितपणे संबंधित आणि व्याकरणीयदृष्ट्या योग्य मजकूर तयार करता येतो जो त्यांच्या प्रशिक्षण डेटामध्ये पाहिलेल्या नमुन्यांची नक्कल करतो.

François Chollet, Google मधील एक प्रमुख AI संशोधक, यांनी Turing Test संदर्भात Nature ला 2023 च्या मुलाखतीत नमूद केल्याप्रमाणे, ‘ही एक शाब्दिक चाचणी नव्हती जी तुम्ही प्रत्यक्षात मशीनवर चालवाल — हा अधिक विचार प्रयोग होता.’ टीकाकारांचा असा युक्तिवाद आहे की LLMs कोणत्याही अंतर्निहित आकलन, चेतना किंवा व्यक्तिनिष्ठ अनुभवाशिवाय संभाषणात्मक नक्कल साध्य करू शकतात – जे मानवी बुद्धिमत्तेचे वैशिष्ट्य आहेत. ते डेटामधून प्राप्त केलेल्या वाक्यरचना आणि अर्थशास्त्राचे मास्टर आहेत, परंतु वास्तविक जगात खरी पायाभरणी, सामान्य ज्ञान तर्क (जरी ते त्याचे अनुकरण करू शकतात), आणि हेतुपुरस्सरतेचा अभाव आहे. या दृष्टिकोनातून, Turing Test उत्तीर्ण होणे हे अनुकरणात उत्कृष्टता दर्शवते, विचारांच्या उदयाचे आवश्यक नाही. हे सिद्ध करते की AI मानवी भाषेचे नमुने कुशलतेने पुनरुत्पादित करू शकते, कदाचित विशिष्ट संदर्भांमध्ये सामान्य मानवी कामगिरीला मागे टाकेल अशा मर्यादेपर्यंत, परंतु ते मशीनच्या अंतर्गत स्थिती किंवा समजूतदारपणाबद्दलच्या खोल प्रश्नांचे निराकरण करत नाही. खेळ, असे दिसते, मुखवट्याच्या गुणवत्तेची चाचणी करतो, त्यामागील अस्तित्वाच्या स्वरूपाची नाही.

दुधारी तलवार: सामाजिक पडसाद

AI ची मानवांची खात्रीशीरपणे नक्कल करण्याची क्षमता, जसे या अभ्यासात दाखवले आहे, त्याचे गंभीर आणि संभाव्यतः विघटनकारी सामाजिक परिणाम आहेत, जे बुद्धिमत्तेबद्दलच्या शैक्षणिक वादांच्या पलीकडे जातात. Cameron Jones, अभ्यासाचे प्रमुख लेखक, या चिंता स्पष्टपणे हायलाइट करतात, असे सुचवतात की परिणाम प्रगत LLMs च्या वास्तविक-जगातील परिणामांसाठी शक्तिशाली पुरावे देतात.

  • ऑटोमेशन आणि कामाचे भविष्य: Jones LLMs च्या संभाव्यतेकडे लक्ष वेधतात की ते ‘कोणालाही कळू न देता लहान परस्परसंवादांमध्ये लोकांची जागा घेऊ शकतात.’ ही क्षमता मजकूर-आधारित संवादावर मोठ्या प्रमाणावर अवलंबून असलेल्या नोकऱ्यांचे ऑटोमेशन वेगवान करू शकते, जसे की ग्राहक सेवा भूमिका, तांत्रिक सहाय्य, सामग्री मॉडरेशन आणि अगदी पत्रकारिता किंवा प्रशासकीय कामाचे काही पैलू. ऑटोमेशन कार्यक्षमतेत वाढ करण्याचे वचन देत असले तरी, ते नोकरी विस्थापन आणि अभूतपूर्व प्रमाणात कर्मचाऱ्यांच्या अनुकूलनाची गरज याबद्दल महत्त्वपूर्ण चिंता देखील निर्माण करते. पूर्वी त्यांच्या सूक्ष्म संवादावरील अवलंबनामुळे अद्वितीयपणे मानवी मानल्या जाणाऱ्या भूमिका स्वयंचलित करण्याचे आर्थिक आणि सामाजिक परिणाम प्रचंड असू शकतात.
  • अत्याधुनिक फसवणुकीचा उदय: कदाचित अधिक तात्काळ चिंताजनक म्हणजे दुर्भावनापूर्ण क्रियाकलापांमध्ये गैरवापराची शक्यता. हा अभ्यास ‘सुधारित social engineering हल्ल्यांच्या’ व्यवहार्यतेवर जोर देतो. कल्पना करा की AI-शक्तीवर चालणारे बॉट्स अत्यंत वैयक्तिकृत फिशिंग घोटाळ्यांमध्ये गुंतलेले आहेत, तयार केलेली चुकीची माहिती पसरवत आहेत, किंवा ऑनलाइन फोरम किंवा सोशल मीडियामध्ये व्यक्तींना अभूतपूर्व प्रभावीतेने हाताळत आहेत कारण ते मानवांपेक्षा वेगळे ओळखता येत नाहीत. विशिष्ट, विश्वासार्ह व्यक्तिमत्त्वे स्वीकारण्याची क्षमता या हल्ल्यांना अधिक खात्रीशीर आणि शोधण्यास कठीण बनवू शकते. यामुळे ऑनलाइन परस्परसंवादावरील विश्वास कमी होऊ शकतो, ज्यामुळे डिजिटल संप्रेषणांच्या सत्यतेची पडताळणी करणे अधिकाधिक कठीण होते आणि संभाव्यतः सामाजिक विभाजन किंवा राजकीय अस्थिरतेला खतपाणी घालते.
  • सामान्य सामाजिक व्यत्यय: विशिष्ट धोक्यांच्या पलीकडे, खात्रीशीरपणे मानवी-सारख्या AI च्या व्यापक उपयोजनामुळे व्यापक सामाजिक बदल होऊ शकतात. जेव्हा आपण खात्री बाळगू शकत नाही की आपण मानवाशी बोलत आहोत की मशीनशी, तेव्हा आंतरवैयक्तिक संबंध कसे बदलतात? खऱ्या मानवी संबंधांच्या मूल्याचे काय होते? AI साथीदार सामाजिक पोकळी भरू शकतात, परंतु खऱ्या मानवी परस्परसंवादाच्या किंमतीवर? मानवी आणि कृत्रिम संप्रेषणामधील अस्पष्ट रेषा मूलभूत सामाजिक नियमांना आव्हान देतात आणि आपण एकमेकांशी आणि तंत्रज्ञानाशी कसे संबंध ठेवतो हे पुन्हा आकार देऊ शकतात. सकारात्मक अनुप्रयोग (जसे की वर्धित प्रवेशयोग्यता साधने किंवा वैयक्तिकृत शिक्षण) आणि नकारात्मक परिणाम या दोन्हींची क्षमता एक जटिल लँडस्केप तयार करते ज्यामध्ये समाज नुकताच नेव्हिगेट करण्यास सुरुवात करत आहे.

मानवी घटक: बदलणारी धारणा

हे ओळखणे महत्त्वाचे आहे की Turing Test, आणि UC San Diego मध्ये आयोजित केलेल्या प्रयोगांसारखे प्रयोग, केवळ मशीन क्षमतेचे मूल्यांकन नाहीत; ते मानवी मानसशास्त्र आणि धारणेचे प्रतिबिंब देखील आहेत. Jones त्यांच्या समालोचनात निष्कर्ष काढतात त्याप्रमाणे, चाचणी AI इतकीच आपल्यालाही सूक्ष्मदर्शकाखाली ठेवते. मानवाला मशीनपासून वेगळे ओळखण्याची आपली क्षमता, किंवा अक्षमता, आपल्या स्वतःच्या पूर्वग्रहांनी, अपेक्षांनी आणि AI प्रणालींशी वाढत्या परिचयाने (किंवा त्याच्या अभावाने) प्रभावित होते.

सुरुवातीला, नवीन AI चा सामना करताना, मानव सहज फसवले जाऊ शकतात. तथापि, जसजसा संपर्क वाढतो, तसतशी अंतर्ज्ञान तीक्ष्ण होऊ शकते. लोक AI-व्युत्पन्न मजकुराच्या सूक्ष्म सांख्यिकीय फिंगरप्रिंट्सबद्दल अधिक जागरूक होऊ शकतात – कदाचित एक अति-सुसंगत सूर, खऱ्या विराम किंवा अडखळण्यांचा अभाव, किंवा किंचित अनैसर्गिक वाटणारे विश्वकोशीय ज्ञान. अशा चाचण्यांचे निकाल त्यामुळे स्थिर नसतात; ते AI अत्याधुनिकता आणि मानवी विवेचन यांच्यातील सध्याच्या परस्परसंवादाचे काळातील एक स्नॅपशॉट दर्शवतात. हे संभव आहे की जसजसे लोक AI च्या विविध प्रकारांशी संवाद साधण्यास अधिक सरावतील, तसतशी ‘त्यांना हुडकून काढण्याची’ सामूहिक क्षमता सुधारू शकते, संभाव्यतः यशस्वी ‘नक्कल’ काय आहे यासाठी बार वाढवू शकते. AI बुद्धिमत्तेची धारणा एक हलणारे लक्ष्य आहे, जी एका बाजूला तांत्रिक प्रगतीने आणि दुसरीकडे विकसित होणाऱ्या मानवी समजूतदारपणा आणि अनुकूलनाने आकार घेते.

आपण येथून कुठे जातो? बुद्धिमत्तेची पुनर्परिभाषा

GPT-4.5 सारख्या मॉडेल्सचे व्यक्तिमत्त्व-चालित Turing tests मधील यश AI विकासातील एक महत्त्वपूर्ण बिंदू दर्शवते, भाषिक अनुकरणात प्रभावी प्रभुत्व दर्शवते. तरीही, ते एकाच वेळी LLMs च्या युगात ‘बुद्धिमत्तेचे’ निश्चित मापन म्हणून Turing Test च्या मर्यादा हायलाइट करते. तांत्रिक यश साजरे करताना, लक्ष कदाचित बदलण्याची गरज आहे. AI आपल्याला मानव असल्याचे भासवून फसवू शकते का, हे केवळ विचारण्याऐवजी, आपल्याला कदाचित अधिक सूक्ष्म मापदंडांची आवश्यकता आहे जे खोल संज्ञानात्मक क्षमतांची तपासणी करतात – जसे की मजबूत सामान्य ज्ञान तर्क, कारण आणि परिणामाची खरी समज, खऱ्या अर्थाने नवीन परिस्थितींशी जुळवून घेण्याची क्षमता (केवळ प्रशिक्षण डेटावरील भिन्नता नाही), आणि नैतिक निर्णय. पुढे आव्हान केवळ आपल्यासारखे बोलू शकणारे मशीन तयार करणे नाही, तर त्यांच्या क्षमता आणि मर्यादांचे खरे स्वरूप समजून घेणे आणि आपल्यामध्ये वाढत्या अत्याधुनिक कृत्रिम कलाकारांनी निर्माण केलेल्या निर्विवाद जोखमी कमी करताना त्यांच्या संभाव्यतेचा जबाबदारीने उपयोग करण्यासाठी तांत्रिक आणि सामाजिक दोन्ही – फ्रेमवर्क विकसित करणे आहे. تقلیدی खेळ सुरू आहे, परंतु नियम, आणि कदाचित जिंकण्याची व्याख्याच, वेगाने विकसित होत आहे.