AI साधने स्रोतांचा अचूक उल्लेख करण्यास संघर्ष करतात

चुकीच्या संदर्भांची समस्या

टो सेंटर फॉर डिजिटल जर्नलिझमने (Tow Center for Digital Journalism) केलेल्या अभ्यासात ही बाब समोर आली आहे, आणि त्याचे निष्कर्ष चिंताजनक आहेत. संशोधन असे दर्शवते की बहुतेक प्रमुख AI सर्च इंजिन बातम्या लेखांचे (news articles) योग्यरित्या संदर्भ देण्यात अयशस्वी ठरतात. ही साधने अनेकदा बनावट संदर्भ लिंक (reference links) तयार करतात किंवा स्त्रोताबद्दल (source) विचारले असता उत्तर देऊ शकत नाहीत.

अभ्यासात विविध AI चॅटबॉट्सची (chatbots) कामगिरी एका चार्टमध्ये दर्शविण्यात आली, ज्यामध्ये संबंधित संदर्भ (relevant citations) देण्यात ते कमी पडत असल्याचे दिसून आले. विशेष म्हणजे, xAI चा ग्रोक (Grok) चॅटबॉट, ज्याला एलोन मस्कने (Elon Musk) ‘सर्वात सत्य’ AI म्हणून प्रमोट केले आहे, तो या संदर्भात सर्वात कमी अचूक आणि विश्वासार्ह स्त्रोतांपैकी एक होता.

अहवालात म्हटले आहे:

“एकूणच, चॅटबॉट्सनी 60% पेक्षा जास्त प्रश्नांची चुकीची उत्तरे दिली. वेगवेगळ्या प्लॅटफॉर्मवर, चुकीच्या उत्तरांचे प्रमाण वेगवेगळे होते. Perplexity ने 37% प्रश्नांची चुकीची उत्तरे दिली, तर Grok चा एरर रेट (error rate) खूप जास्त होता, त्याने 94% प्रश्नांची चुकीची उत्तरे दिली.”

हे विविध AI साधनांच्या अचूकतेमध्ये लक्षणीय फरक दर्शवते, काही साधने इतरांपेक्षा खूपच खराब कामगिरी करतात.

प्रतिबंधित सामग्रीमध्ये प्रवेश (Accessing Restricted Content)

अहवालात AI साधनांच्या क्षमतेबद्दल आणखी एक चिंताजनक बाब उघडकीस आली आहे, ती म्हणजे ज्या स्त्रोतांनी AI स्क्रॅपिंग (scraping) प्रतिबंधित केले आहे, अशा स्त्रोतांकडून माहिती मिळवणे आणि ती माहिती वापरकर्त्यांना देणे.

अहवालात नमूद केले आहे:

“काहीवेळा, चॅटबॉट्सनी अशा प्रकाशकांच्या प्रश्नांची चुकीची उत्तरे दिली किंवा उत्तरे देण्यास नकार दिला, ज्यांनी त्यांना त्यांची सामग्री ऍक्सेस करण्याची परवानगी दिली होती. दुसरीकडे, त्यांनी कधीकधी अशा प्रकाशकांच्या प्रश्नांची अचूक उत्तरे दिली, ज्यांच्या सामग्रीमध्ये त्यांना प्रवेश नसायला हवा होता.”

यावरून असे दिसून येते की काही AI प्रदाते कदाचित रोबोट्स.टीएक्सटी (robots.txt) कमांड्सचा आदर करत नाहीत, जे त्यांना कॉपीराइट असलेली सामग्री ऍक्सेस करण्यापासून रोखण्यासाठी बनवलेले आहेत. AI साधने या निर्बंधांचे उल्लंघन करत असल्यामुळे, हे नैतिक आणि कायदेशीर प्रश्न निर्माण करते.

संशोधनासाठी AI वर वाढता विश्वास

मुख्य समस्या म्हणजे AI साधनांचा सर्च इंजिन (search engines) म्हणून, विशेषतः तरुण वापरकर्त्यांमध्ये वाढता वापर. अनेक तरुण आता ChatGPT चा प्राथमिक संशोधन साधन (primary research tool) म्हणून वापर करत आहेत. AI साधने अचूक माहिती देण्यात आणि वापरकर्त्यांना महत्त्वाच्या विषयांवर विश्वसनीयपणे शिक्षित करण्यात कमी पडत असल्याचे दिसून येत असताना, ही प्रवृत्ती चिंताजनक आहे.

संशोधनातील निष्कर्ष हे स्पष्टपणे दर्शवतात की AI-निर्मित प्रतिसाद (responses) नेहमीच मौल्यवान किंवा वापरण्यायोग्य नसतात. या साधनांना खऱ्या संशोधनाचा पर्याय आणि ज्ञानाचा शॉर्टकट म्हणून प्रमोट करणे हा खरा धोका आहे. विशेषतः तरुण वापरकर्त्यांसाठी, यामुळे एक अशी पिढी तयार होऊ शकते जी कमी माहिती असलेली, कमी सक्षम आणि संभाव्यत: सदोष प्रणालींवर जास्त अवलंबून असेल.

AI एक साधन आहे, उपाय नाही (AI as a Tool, Not a Solution)

मार्क क्युबन (Mark Cuban) या प्रसिद्ध व्यावसायिकाने SXSW मधील एका सत्रात हे आव्हान प्रभावीपणे मांडले. त्यांनी यावर जोर दिला:

“AI कधीही उत्तर नसते. AI हे साधन आहे. तुमच्याकडे कोणतीही कौशल्ये असली तरी, तुम्ही AI चा वापर ती वाढवण्यासाठी करू शकता.”

क्युबनचा दृष्टिकोन हे अधोरेखित करतो की AI साधने फायदे देऊ शकतात आणि कार्यप्रदर्शन सुधारण्यासाठी त्यांची क्षमता तपासली पाहिजे, परंतु ती ಸ್ವತಂತ್ರ (standalone) उपाय नाहीत.

AI व्हिडिओ सामग्री तयार करू शकते, परंतु त्यात आकर्षक कथा विकसित करण्याची क्षमता नाही, जो सर्वात महत्त्वाचा घटक आहे. त्याचप्रमाणे, AI ॲप (app) डेव्हलपमेंटमध्ये (development) मदत करण्यासाठी कोड (code) तयार करू शकते, परंतु ते स्वतः ॲप तयार करू शकत नाही.

या मर्यादा गंभीर विचार (critical thinking) आणि मानवी कौशल्याची (human expertise) गरज दर्शवतात. AI आउटपुट (outputs) निश्चितपणे विविध कामांमध्ये मदत करू शकतात, परंतु ते मानवी कल्पकता आणि कौशल्याची मूलभूत गरज बदलू शकत नाहीत.

गंभीर मूल्यमापन आणि कौशल्य विकासाची गरज

या संशोधनाच्या संदर्भात, विशेषतः तरुण लोकांना असे वाटते की AI साधने निश्चित उत्तरे देऊ शकतात, ही खरी चिंता आहे. तथापि, अभ्यास आणि इतर अनेक संशोधन सातत्याने दर्शवतात की AI यासाठी विशेषतः योग्य नाही.

पारंपरिक संशोधन पद्धतींऐवजी AI ला पर्याय म्हणून प्रमोट करण्याऐवजी, व्यक्तींना या प्रणाली त्यांच्या विद्यमान क्षमता कशा वाढवू शकतात याबद्दल शिक्षित करण्यावर लक्ष केंद्रित केले पाहिजे. AI चा प्रभावीपणे वापर करण्यासाठी, वापरकर्त्यांकडे प्रथम मजबूत संशोधन आणि विश्लेषणात्मक कौशल्ये (analytical skills), तसेच संबंधित क्षेत्रातील कौशल्य असणे आवश्यक आहे.

परिणामांचा सखोल विचार (Deeper Dive into the Implications)

या संशोधनाचे परिणाम केवळ चुकीच्या संदर्भांच्या तात्काळ चिंतेच्या पलीकडे जातात. हे AI आपल्या जगाबद्दलची समज कशी आकारते आणि चुकीच्या माहितीचा वेगाने प्रसार होण्याची शक्यता याबद्दल व्यापक प्रश्न उपस्थित करते.

1. माहिती स्त्रोतांवरील विश्वासाची कमतरता:

जेव्हा AI साधने सातत्याने चुकीचे किंवा बनावट संदर्भ देतात, तेव्हा ते संपूर्ण माहिती प्रणालीवरील विश्वास कमी करतात. वापरकर्ते सर्व स्त्रोतांबद्दल संशयी बनू शकतात, ज्यामुळे विश्वासार्ह आणि अविश्वासार्ह माहितीमध्ये फरक करणे कठीण होते.

2. शिक्षण आणि शिकण्यावर परिणाम:

संशोधनासाठी AI साधनांवर अवलंबून राहणे, विशेषतः तरुण वापरकर्त्यांमध्ये, शिक्षण आणि शिकण्यावर हानिकारक परिणाम करू शकते. विद्यार्थ्यांमध्ये विषयांची वरवरची समज विकसित होऊ शकते, त्यांच्यात माहितीचे प्रभावीपणे मूल्यांकन करण्यासाठी आवश्यक असलेल्या गंभीर विचार कौशल्यांची कमतरता असू शकते.

3. AI डेव्हलपर्सची नैतिक जबाबदारी:

या अभ्यासाचे निष्कर्ष AI डेव्हलपर्सच्या (developers) नैतिक जबाबदाऱ्यांवर प्रकाश टाकतात. त्यांनी त्यांच्या प्रणालींमध्ये अचूकता आणि पारदर्शकतेला प्राधान्य दिले पाहिजे आणि AI साधनांचा वापर चुकीच्या माहितीचा प्रसार करण्यासाठी किंवा माहिती स्त्रोतांची सत्यता कमी करण्यासाठी केला जाणार नाही याची खात्री करावी.

4. मीडिया साक्षरता आणि गंभीर विचारांची गरज:

AI-निर्मित सामग्रीच्या युगात, मीडिया साक्षरता (media literacy) आणि गंभीर विचार कौशल्ये (critical thinking skills) पूर्वीपेक्षा अधिक महत्त्वाची आहेत. व्यक्तींनी माहितीचे गंभीरपणे मूल्यांकन करणे, पूर्वग्रह ओळखणे आणि विश्वासार्ह आणि अविश्वासार्ह स्त्रोतांमध्ये फरक करणे आवश्यक आहे.

5. संशोधन आणि माहिती मिळवण्यात AI चे भविष्य:

संशोधन आणि माहिती मिळवण्यासाठी AI साधनांचा विकास आणि सुधारणा करणे आवश्यक आहे. AI मध्ये या क्षेत्रात क्रांती घडवण्याची क्षमता आहे, परंतु सध्याच्या मर्यादा दूर करणे आणि ही साधने जबाबदारीने आणि नैतिकतेने वापरली जातील याची खात्री करणे महत्त्वाचे आहे.

विशिष्ट चिंतांवर अधिक चर्चा (Expanding on Specific Concerns)

संशोधनाने उपस्थित केलेल्या काही विशिष्ट चिंतांवर अधिक चर्चा करूया:

A. ‘भ्रम’ समस्या (‘Hallucination’ Problem):

AI चॅटबॉट्स ‘भ्रम’ (hallucinate) निर्माण करण्यासाठी किंवा पूर्णपणे बनावट असलेली माहिती तयार करण्यासाठी ओळखले जातात. संदर्भांच्या बाबतीत, अचूकता खूप महत्त्वाची असते, त्यामुळे ही समस्या अधिक गंभीर आहे. अभ्यासात असे दिसून आले आहे की AI साधने अनेकदा संदर्भ लिंक (reference links) तयार करतात, जी या समस्येची गंभीरता दर्शवते.

B. पूर्वग्रहाची समस्या (The Bias Problem):

AI मॉडेल्सना (models) मोठ्या डेटासेटवर (datasets) प्रशिक्षित केले जाते, ज्यामध्ये समाजातील पूर्वग्रह किंवा चुकीच्या दृष्टिकোনাंचे प्रतिबिंब असू शकते. हे पूर्वग्रह AI च्या प्रतिसादांमध्ये (responses) दिसू शकतात, ज्यामुळे चुकीची किंवा दिशाभूल करणारी माहिती मिळू शकते. जेव्हा AI साधनांचा वापर संवेदनशील किंवा वादग्रस्त विषयांवर संशोधन करण्यासाठी केला जातो, तेव्हा ही बाब विशेषतः चिंताजनक असते.

C. पारदर्शकतेची समस्या (The Transparency Problem):

अनेक AI मॉडेल्सची अंतर्गत कार्यपद्धती अनेकदा अस्पष्ट असते, ज्यामुळे ते त्यांच्या निष्कर्षापर्यंत कसे पोहोचतात हे समजणे कठीण होते. पारदर्शकतेच्या या अभावामुळे प्रणालीतील त्रुटी किंवा पूर्वग्रह ओळखणे आणि दुरुस्त करणे आव्हानात्मक होते.

D. कॉपीराइट समस्या (The Copyright Problem):

अभ्यासात असे दिसून आले आहे की काही AI साधने अशा स्त्रोतांकडून सामग्री ऍक्सेस करतात ज्यांनी त्यांना ब्लॉक केले आहे, ज्यामुळे गंभीर कॉपीराइट (copyright) समस्या निर्माण होतात. AI डेव्हलपर्सनी बौद्धिक संपदा अधिकारांचा (intellectual property rights) आदर केला पाहिजे आणि त्यांची साधने कॉपीराइटचे उल्लंघन करण्यासाठी वापरली जाणार नाहीत याची खात्री करावी.

पुढील मार्ग: जबाबदार AI विकास आणि शिक्षण (The Path Forward: Responsible AI Development and Education)

पुढील मार्गासाठी दोन-মুখী दृष्टिकोन आवश्यक आहे: जबाबदार AI विकास आणि व्यापक शिक्षण.

1. जबाबदार AI विकास (Responsible AI Development):

AI डेव्हलपर्सनी त्यांच्या प्रणालींच्या डिझाइन (design) आणि अंमलबजावणीमध्ये (implementation) अचूकता, पारदर्शकता आणि नैतिक विचारांना प्राधान्य दिले पाहिजे. यामध्ये समाविष्ट आहे:

  • संदर्भ अचूकता सुधारणे: AI साधने अचूक आणि पडताळणी करण्यायोग्य संदर्भ (verifiable citations) देतील याची खात्री करण्यासाठी तंत्रज्ञान विकसित करणे.
  • पूर्वग्रह दूर करणे: AI मॉडेल्समधील पूर्वग्रह कमी करण्यासाठी आणि ते निष्पक्ष आणि संतुलित माहिती प्रदान करतील याची खात्री करण्यासाठी पद्धती लागू करणे.
  • पारदर्शकता वाढवणे: AI मॉडेल्स अधिक पारदर्शक आणि स्पष्ट करणे, ज्यामुळे वापरकर्त्यांना ते त्यांच्या निष्कर्षापर्यंत कसे पोहोचतात हे समजू शकेल.
  • कॉपीराइटचा आदर करणे: AI साधने बौद्धिक संपदा अधिकारांचा आदर करतील आणि परवानगीशिवाय कॉपीराइट केलेली सामग्री ऍक्सेस करणार नाहीत किंवा वापरणार नाहीत याची खात्री करणे.

2. व्यापक शिक्षण (Comprehensive Education):

व्यक्तींना, विशेषतः तरुणांना, AI साधनांच्या क्षमता आणि मर्यादांबद्दल शिक्षित करणे आवश्यक आहे. यामध्ये समाविष्ट आहे:

  • मीडिया साक्षरतेला प्रोत्साहन देणे: गंभीर विचार कौशल्ये आणि विविध स्त्रोतांकडून माहितीचे मूल्यांकन करण्याची क्षमता शिकवणे.
  • संशोधन कौशल्यांवर जोर देणे: पारंपरिक संशोधन पद्धतींचे महत्त्व आणि माहिती स्वतंत्रपणे सत्यापित (verify) करण्याची क्षमता वाढवणे.
  • AI च्या मर्यादा समजून घेणे: वापरकर्त्यांना AI द्वारे चुकीची किंवा पूर्वग्रहदूषित माहिती निर्माण होण्याची शक्यता याबद्दल शिक्षित करणे.
  • जबाबदार वापरास प्रोत्साहन देणे: AI साधनांचा जबाबदार आणि नैतिक वापर करण्यास प्रवृत्त करणे.

जबाबदार AI विकास आणि व्यापक शिक्षण एकत्र करून, आपण AI ची क्षमता वापरू शकतो आणि त्याचे धोके कमी करू शकतो. भविष्यात AI हे शिक्षण आणि शोधासाठी एक मौल्यवान साधन म्हणून काम करेल, चुकीच्या माहितीचा आणि गोंधळाचा स्रोत म्हणून नाही, असे ध्येय असले पाहिजे. या अभ्यासाचे निष्कर्ष हे भविष्यातील कामाची आठवण करून देतात. खऱ्या अर्थाने माहितीपूर्ण आणि AI-साक्षर समाजाच्या दिशेने प्रवास करण्यासाठी सतत दक्षता, गंभीर मूल्यमापन आणि जबाबदार नवोपक्रमासाठी (responsible innovation) वचनबद्धता आवश्यक आहे.