X यूजर्स ग्रोकचा फॅक्ट-चेकरप्रमाणे वापर करत असल्याने चुकीच्या माहितीबद्दल चिंता

AI ची माहिती पडताळणीमधील वाढ

कृत्रिम बुद्धिमत्तेचा (Artificial Intelligence) उदय माहिती मिळवण्याच्या प्रक्रियेला सुलभ करण्यासाठी अनेक साधने घेऊन आला आहे. परंतु, या तांत्रिक प्रगतीमुळे नवीन आव्हाने देखील निर्माण झाली आहेत, विशेषतः चुकीच्या माहितीच्या क्षेत्रात. इलॉन मस्कच्या (Elon Musk) सोशल मीडिया प्लॅटफॉर्म X वर एक चिंताजनक गोष्ट दिसून येत आहे: वापरकर्ते मस्कच्या AI बॉट, ग्रोकचा (Grok) तथ्य-तपासणीसाठी (fact-checking) मोठ्या प्रमाणावर वापर करत आहेत. या विकासामुळे मानवी तथ्य-तपासणी करणाऱ्यांमध्ये (human fact-checkers) चिंतेची लाट पसरली आहे, ज्यामुळे खोट्या किंवा दिशाभूल करणाऱ्या माहितीचा मोठ्या प्रमाणावर प्रसार होण्याची भीती वाढत आहे.

सोशल मीडिया प्लॅटफॉर्मवर AI चे एकत्रीकरण नवीन नाही. X ने वापरकर्त्यांना xAI च्या ग्रोकशी संवाद साधण्याची परवानगी दिली आहे, जी एक प्रकारे, फक्त एका ट्रेंडचे अनुसरण करत आहे. हे Perplexity च्या दृष्टिकोनासारखेच आहे, जे X वर एक स्वयंचलित खाते (automated account) चालवते आणि समान अनुभव देते.

xAI ने X वर ग्रोकची स्वयंचलित उपस्थिती (automated presence) स्थापित केल्यानंतर, वापरकर्त्यांनी त्वरित त्याची क्षमता तपासण्यास सुरुवात केली, प्रश्न विचारले आणि उत्तरे शोधली. भारतासारख्या प्रदेशांमध्ये, एक विशेषतः त्रासदायक गोष्ट दिसून आली: लोकांनी ग्रोकचा वापर टिप्पण्या (comments) आणि प्रश्नांची पडताळणी करण्यासाठी करण्यास सुरुवात केली, ज्यापैकी बरेच विशिष्ट राजकीय विचारसरणींना लक्ष्य करत होते.

मानवी तथ्य-तपासणी करणाऱ्यांची चिंता

तथ्य-तपासणीसाठी ग्रोक आणि त्याच्यासारख्या कोणत्याही AI असिस्टंटवर अवलंबून राहणे ही गंभीर चिंतेची बाब आहे. या AI बॉट्सचे वैशिष्ट्य असे आहे की ते खात्रीलायक वाटणारी उत्तरे तयार करू शकतात, जरी ती प्रत्यक्षात अचूक नसली तरीही. ही केवळ सैद्धांतिक चिंता नाही; ग्रोकने खोट्या बातम्या आणि चुकीची माहिती पसरवल्याची अनेक उदाहरणे आहेत.

एका उल्लेखनीय घटनेत, अनेक राज्य सचिवांनी मस्कला ग्रोकमध्ये महत्त्वपूर्ण बदल करण्याची विनंती केली. AI असिस्टंटने सोशल नेटवर्कवर दिशाभूल करणारी माहिती दिल्याचे समोर आल्यानंतर, निवडणुकीच्या पार्श्वभूमीवर त्यांनी ही तातडीची विनंती केली होती.

यामध्ये ग्रोक एकटा नाही. OpenAI चे ChatGPT आणि Google चे Gemini यांसारख्या इतर प्रमुख चॅटबॉट्समध्ये देखील निवडणुकीशी संबंधित चुकीची माहिती आढळली. 2023 मध्ये, डिसइन्फॉर्मेशन रिसर्चर्सनी (Disinformation researchers) हे दाखवून दिले की ChatGPT सारखे AI चॅटबॉट्स दिशाभूल करणाऱ्या कथा असलेल्या आकर्षक मजकूर (persuasive texts) तयार करण्यासाठी सहजपणे वापरले जाऊ शकतात.

सत्यतेचा भ्रम

पॉयंटर (Poynter) येथील इंटरनॅशनल फॅक्ट-चेकिंग नेटवर्क (IFCN) च्या संचालक एंजी होलन (Angie Holan) यांनी मुख्य मुद्दा स्पष्ट केला, “ग्रोकसारखे AI असिस्टंट, नैसर्गिक भाषा वापरण्यात खूप चांगले आहेत आणि मानवाने बोलल्यासारखे उत्तर देतात. आणि अशा प्रकारे, AI उत्पादने नैसर्गिक आणि अस्सल वाटणाऱ्या प्रतिसादांवर (responses) दावा करतात, जरी ते पूर्णपणे चुकीचे असले तरीही. हीच खरी धोक्याची बाब आहे.”

होलन यांनी सांगितल्याप्रमाणे, धोका सत्यतेच्या फसवेपणात आहे. AI ची मानवी भाषेची नक्कल करण्याची क्षमता सत्यतेचा भ्रम निर्माण करते, जरी मूळ माहिती सदोष किंवा पूर्णपणे बनावट असली तरीही.

मूलभूत फरक: AI vs. मानवी तथ्य-तपासणी करणारे

AI असिस्टंट आणि मानवी तथ्य-तपासणी करणाऱ्यांमधील फरक खूप मोठा आहे. मानवी तथ्य-तपासणी करणारे अनेक, विश्वासार्ह स्त्रोतांचा (credible sources) वापर करून माहितीची काळजीपूर्वक पडताळणी करतात. ते पारदर्शकतेने (transparency) काम करतात, त्यांची नावे आणि संस्थात्मक संलग्नता (organizational affiliations) त्यांच्या निष्कर्षांशी जोडतात, ज्यामुळे जबाबदारी आणि विश्वासार्हता सुनिश्चित होते.

भारतातील ना-नफा (non-profit) तथ्य-तपासणी वेबसाइट Alt News चे सह-संस्थापक प्रतीक सिन्हा (Pratik Sinha) यांनी सांगितले की, ग्रोकची उत्तरे सध्या आकर्षक वाटू शकतात, परंतु त्याची अचूकता मुळात त्याला मिळणाऱ्या डेटावर अवलंबून असते. “त्याला कोणता डेटा पुरवला जाईल हे कोण ठरवणार, आणि तिथेच सरकारी हस्तक्षेप (government interference) इत्यादी गोष्टी येतात,” असे त्यांनी डेटा स्त्रोताच्या पारदर्शकतेच्या (data source transparency) गंभीर मुद्द्यावर प्रकाश टाकताना सांगितले.

सिन्हा यांनी जोर देऊन सांगितले की, पारदर्शकतेचा अभाव संभाव्य हानीसाठी (potential harm) कारणीभूत ठरतो. “ज्यामध्ये पारदर्शकता नाही ती कोणतीही गोष्ट हानी पोहोचवू शकते कारण ज्यामध्ये पारदर्शकता नाही ती गोष्ट कोणत्याही प्रकारे वळवली जाऊ शकते.”

ग्रोकची स्वतःची कबुली: गैरवापाराची शक्यता

एका विडंबनात्मक गोष्टीत (ironic twist), X वरील ग्रोकच्या खात्याने त्याच्या एका पोस्ट केलेल्या प्रतिसादात कबूल केले की, “गैरवापर केला जाऊ शकतो — चुकीची माहिती पसरवण्यासाठी आणि गोपनीयतेचे उल्लंघन करण्यासाठी.”

असे असूनही, स्वयंचलित खाते (automated account) वापरकर्त्यांना कोणतीही अस्वीकरण (disclaimers) देत नाही. यामुळे वापरकर्ते चुकीच्या माहितीला बळी पडू शकतात, विशेषतः अशा प्रकरणांमध्ये जिथे AI ने उत्तर “हॅल्युसिनेट” (hallucinate) केले आहे, म्हणजेच AI प्रणालीने खोटी किंवा निरर्थक माहिती तयार केली आहे.

डिजिटल फ्युचर्स लॅबमधील (Digital Futures Lab) रिसर्च असोसिएट अनुष्का जैन (Anushka Jain) यांनी यावर अधिक माहिती देताना सांगितले, “प्रतिसाद देण्यासाठी ते माहिती तयार करू शकते.” माहिती तयार करण्याची ही प्रवृत्ती तथ्य-तपासणीच्या संदर्भात AI च्या मर्यादा दर्शवते.

प्रशिक्षण डेटाची समस्या (The Training Data Dilemma)

ग्रोकच्या प्रशिक्षण डेटाबद्दल (training data) आणखी एक प्रश्न निर्माण होतो. ग्रोक X वरील पोस्टचा प्रशिक्षण साहित्य (training material) म्हणून कितपत वापर करतो आणि अशा पोस्टची तथ्य-तपासणी करण्यासाठी कोणती गुणवत्ता नियंत्रण (quality control) उपाय वापरले जातात, याबद्दल अनिश्चितता आहे. पूर्वी लागू केलेल्या एका बदलामुळे ग्रोकला X वापरकर्त्यांच्या डेटावर डिफॉल्ट प्रवेश (default access) मिळाला, ज्यामुळे AI प्लॅटफॉर्मवर असलेली चुकीची माहिती आत्मसात (absorb) करू शकते आणि त्याचा प्रसार करू शकते, अशी चिंता वाढली आहे.

AI-निर्मित माहितीचा सार्वजनिक vs. खाजगी वापर

सोशल मीडिया प्लॅटफॉर्मवर ग्रोकसारख्या AI असिस्टंटच्या सार्वजनिक स्वरूपाबद्दल आणखी एक महत्त्वपूर्ण चिंता आहे. ChatGPT सारख्या चॅटबॉट्सशी संवाद साधणे सहसा खाजगी सेटिंगमध्ये होते, पण ग्रोकचे प्रतिसाद सार्वजनिकरित्या दिले जातात.

या सार्वजनिक प्रसारामुळे (public dissemination), एखादा वापरकर्ता AI ने दिलेली माहिती चुकीची असू शकते हे जाणून असला तरीही, प्लॅटफॉर्मवरील इतर वापरकर्ते ती सत्य म्हणून स्वीकारू शकतात. यामुळे गंभीर सामाजिक परिणाम (social consequences) होऊ शकतात.

याचे ऐतिहासिक दाखले (Historical precedents) आहेत. उदाहरणार्थ, भारताने व्हॉट्सॲपद्वारे (WhatsApp) पसरलेल्या चुकीच्या माहितीमुळे जमावाकडून होणाऱ्या हत्यांच्या (mob lynchings) दुःखद घटना पाहिल्या. या घटना, जनरेटिव्ह AI (Generative AI) च्या व्यापक उपलब्धतेपूर्वीच्या असल्या तरी, अनियंत्रित चुकीच्या माहितीच्या वास्तविक धोक्यांची (real-world dangers) आठवण करून देतात. GenAI च्या आगमनाने, जे आश्चर्यकारकपणे वास्तविक दिसणारे सिंथेटिक सामग्री (synthetic content) तयार करू शकते, या धोक्यांमध्ये आणखी वाढ झाली आहे.

AI चा त्रुटी दर (The Error Rate of AI)

IFCN च्या होलन यांनी चेतावणी दिली की, “जर तुम्ही ग्रोकची बरीच उत्तरे पाहिली, तर तुम्हाला वाटेल, अरे, त्यापैकी बहुतेक बरोबर आहेत, आणि ते खरे असू शकते, परंतु काही अशी असतील जी चुकीची असतील. आणि किती? हा एक छोटासा भाग नाही. काही संशोधन अभ्यासांनी (research studies) दर्शविले आहे की AI मॉडेल्समध्ये 20% त्रुटी दर (error rates) असतो… आणि जेव्हा ते चुकते, तेव्हा ते खरोखरच गंभीर आणि वास्तविक-जगावर परिणाम करणारे (real-world consequences) ठरू शकते.”

होलन यांनी सांगितल्याप्रमाणे, 20% त्रुटी दर ही एक महत्त्वपूर्ण संख्या आहे. हे तथ्यात्मक अचूकतेची (factual accuracy) मागणी करणाऱ्या परिस्थितींमध्ये AI ची अविश्वसनीयता दर्शवते. आणि, त्या জোর देऊन सांगतात की, या त्रुटींचे परिणाम गंभीर असू शकतात, जे डिजिटल क्षेत्राच्या पलीकडे जातात.

AI: एक साधन, मानवी निर्णयाला पर्याय नाही

xAI सह AI कंपन्या अधिक मानवी-सदृश (human-like) संवाद साधण्यासाठी त्यांचे मॉडेल्स सतत सुधारत असताना, मूलभूत सत्य हेच राहते: AI मानवी निर्णयाची जागा घेऊ शकत नाही आणि घेऊ नये, विशेषतः तथ्य-तपासणीच्या (fact-checking) महत्त्वपूर्ण क्षेत्रात.

टेक कंपन्यांचा मानवी तथ्य-तपासणी करणाऱ्यांवरील अवलंबित्व कमी करण्यासाठी मार्ग शोधण्याचा ट्रेंड चिंतेचा विषय आहे. X आणि Meta सारख्या प्लॅटफॉर्मने “कम्युनिटी नोट्स” (‘Community Notes’) सारख्या उपक्रमांद्वारे क्राउडसोर्स केलेल्या (crowdsourced) तथ्य-तपासणीची संकल्पना स्वीकारली आहे. हे बदल, काही फायदे देत असले तरी, कठोर तथ्य-तपासणी मानकांची (rigorous fact-checking standards) संभाव्य घसरण होण्याची शक्यता देखील वाढवतात.

मानवी तथ्य-तपासणीकडे परत?

Alt News चे सिन्हा यांनी आशावादी दृष्टिकोन व्यक्त केला, असे सुचवले की लोक अखेरीस मशीनच्या उत्पादनांमधील आणि मानवी तथ्य-तपासणी करणाऱ्यांच्या कामांमधील फरक ओळखायला शिकतील, आणि शेवटी मानवी तथ्य-तपासणी करणाऱ्यांच्या अचूकतेला आणि विश्वासार्हतेला महत्त्व देतील.

“आपण शेवटी तथ्य-तपासणीकडे (fact-checking) परत येताना पाहणार आहोत,” IFCN च्या होलन यांनी भविष्यवाणी केली.

तथापि, त्यांनी सावध केले की, यादरम्यान, AI-निर्मित माहितीच्या जलद प्रसारामुळे तथ्य-तपासणी करणाऱ्यांना जास्त काम करावे लागेल. चुकीच्या माहितीच्या लाटेचा प्रभावीपणे सामना करणे, हे आव्हान असेल, ज्यामुळे लोकांना सत्य माहिती मिळत राहील, केवळ आकर्षक भ्रमांवर (convincing illusions) आधारित माहिती मिळणार नाही.

मूळ प्रश्न: सत्याची काळजी आहे का?

या सगळ्याच्या केंद्रस्थानी एक मूलभूत प्रश्न आहे: “तुम्हाला खरोखर काय सत्य आहे याची काळजी आहे की नाही? तुम्ही फक्त अशा गोष्टीचा दिखावा शोधत आहात का जी सत्य वाटते आणि सत्य असल्यासारखी वाटते, पण प्रत्यक्षात सत्य नाही? कारण AI असिस्टंट तुम्हाला तेच देईल,” होलन म्हणाल्या.

हा प्रश्न माहिती प्रसारामध्ये AI च्या वाढत्या वापरामुळे निर्माण झालेल्या गंभीर समस्येचे वर्णन करतो. आपण, एक समाज म्हणून, सोयी आणि सत्याच्या दिखाव्याला प्राधान्य देण्यासाठी, तथ्यांची पडताळणी (verifying facts) करण्याच्या मेहनतीच्या प्रक्रियेपेक्षा जास्त महत्त्व देण्यास तयार आहोत का? या प्रश्नाचे उत्तर शेवटी माहितीचे भविष्य (future of information) घडवेल, हे ठरवेल की आपण तयार केलेल्या वास्तविकतेच्या जगात (world of manufactured realities) हरवून जाऊ किंवा सत्य आणि अचूकतेच्या तत्त्वांचे पालन करू.