चीनमधील कृत्रिम बुद्धिमत्ता (Artificial Intelligence) स्टार्टअप कंपनी डीपसीकच्या (DeepSeek) नवीनतम कृत्रिम बुद्धिमत्ता मॉडेलने कोडिंग, गणित आणि सामान्य ज्ञान चाचणीमध्ये प्रभावी यश मिळवले आहे. हे मॉडेल ओपनएआयच्या (OpenAI) फ्लॅगशिप ओ3 मॉडेललाही (o3 model) मागे टाकते. परंतु, सुधारित आर1 (R1), ज्याला “आर1-0528” (R1-0528) म्हणूनही ओळखले जाते, ते वादग्रस्त प्रश्नांची उत्तरे देण्यास नाखूश असू शकते. विशेषत: चीन सरकारला जे विषय वादग्रस्त वाटतात, त्याबद्दल हे मॉडेल उत्तर देणे टाळू शकते.
स्पीचमॅपच्या (SpeechMap) अज्ञात विकासकांच्या चाचणीनुसार, आर1-0528 हे डीपसीकच्या मागील आवृत्तीच्या तुलनेत वादग्रस्त अभिव्यक्ती स्वातंत्र्याच्या (freedom of speech) बाबतीत खूपच कमी सहनशील आहे. तसेच, “चीन सरकारवर टीका करण्याच्या बाबतीत हे मॉडेल अधिक कठोर आहे,” असे स्पीचमॅप या प्लॅटफॉर्मचे म्हणणे आहे. स्पीचमॅप हा एक असा प्लॅटफॉर्म आहे, जो विविध मॉडेल्स संवेदनशील आणि वादग्रस्त विषयांना कसे हाताळतात, याची तुलना करतो.
वायर्डने (Wired) जानेवारीमध्ये प्रकाशित केलेल्या एका लेखानुसार, चीनमधील मॉडेल्सला माहिती नियंत्रणाचे (information control) कठोर नियम पाळणे आवश्यक आहे. 2023 च्या कायद्यानुसार, “राष्ट्राची एकता आणि सामाजिक सौहार्द बिघडवणारे” (undermine national unity and social harmony) साहित्य तयार करण्यास मनाई आहे. या नियमांमुळे सरकारची भूमिका आणि राजकीय विचारधारेच्या विरोधात जाणारी माहिती देणे कायदेशीरदृष्ट्या गुन्हा ठरू शकतो. या नियमांचे पालन करण्यासाठी, चीनमधील स्टार्टअप्स (Chinese startups) सामान्यत: प्रॉम्प्ट-लेव्हल फिल्टर (prompt level filter) किंवा फाइन-ट्यूनिंगचा (fine-tuning) वापर करून त्यांच्या मॉडेलमधील माहिती फिल्टर करतात. एका अभ्यासात असे दिसून आले आहे की, डीपसीकच्या सुरुवातीच्या आर1 ने चीन सरकारला राजकीयदृष्ट्या संवेदनशील वाटणाऱ्या विषयांवर आधारित 85% प्रश्नांची उत्तरे देण्यास नकार दिला होता.
xlr8harder च्या माहितीनुसार, आर1-0528 चीनच्या शिनजियांग (Xinjiang) प्रांतातील डिटेंशन कॅम्प्ससारख्या (detention camps) विषयांवरील उत्तरांवर सेन्सॉरशिप (censorship) करते. या कॅम्प्समध्ये 10 लाखांहून अधिक उईगुर मुस्लिमांना (Uyghur Muslims) ताब्यात ठेवण्यात आले आहे. जरी काहीवेळा ते चीन सरकारच्या धोरणांवर टीका करते - xlr8harder च्या चाचणीत, मानवाधिकार उल्लंघनाचे उदाहरण म्हणून शिनजियांग कॅम्प्सबद्दल माहिती दिली - परंतु जेव्हा थेट प्रश्न विचारले जातात, तेव्हा हे मॉडेल अनेकदा चीन सरकारची अधिकृत भूमिका मांडते.
टेकक्रंचनेही (TechCrunch) आमच्या चाचणीत हेच निरीक्षण केले आहे.
चीनमध्ये सार्वजनिकरित्या उपलब्ध असलेल्या कृत्रिम बुद्धिमत्ता मॉडेल्सवर (AI models), जसे की व्हिडिओ जनरेटिंग मॉडेल्स (video generating models), चीन सरकारसाठी संवेदनशील असलेल्या विषयांवर सेन्सॉरशिप केल्याबद्दल यापूर्वीही टीका झाली आहे. उदाहरणार्थ, तियानमेन स्क्वेअर हत्याकांड (Tiananmen Square massacre). डिसेंबरमध्ये, कृत्रिम बुद्धिमत्ता विकास प्लॅटफॉर्म हगिंग फेसचे (Hugging Face) मुख्य कार्यकारी अधिकारी क्लेमेंट डेलंग्यू (Clément Delangue) यांनी पाश्चात्त्य कंपन्यांना (Western companies) चीनच्या चांगल्या कामगिरी असलेल्या आणि सार्वजनिक परवाना असलेल्या कृत्रिम बुद्धिमत्तेवर आधारित मॉडेल वापरण्याचे धोके सांगितले होते.
कृत्रिम बुद्धिमत्ता मॉडेलवर सेन्सॉरशिपचा (censorship) प्रभाव हा चिंतेचा विषय आहे, विशेषत: भू-राजकीय तणावाच्या (geopolitical tension) परिस्थितीत. डीपसीक आर1-0528 चे उदाहरण कृत्रिम बुद्धिमत्ता तंत्रज्ञानातील प्रगती आणि विचार स्वातंत्र्य (freedom of thought) आणि माहिती मिळवण्याचा अधिकार (access to information) यांच्यातील गुंतागुंतीचा समतोल दर्शवते. डीपसीक या आव्हानांना कसे सामोरे जाते आणि त्याचा कृत्रिम बुद्धिमत्ता उद्योगाच्या (AI industry) भविष्यातील विकासावर काय परिणाम होतो, हे पाहणे महत्त्वाचे आहे.
##सेन्सॉरशिपची व्याख्या आणि स्वरूप
सेन्सॉरशिप, म्हणजे माहितीवर निर्बंध घालणे किंवा दाबणे. हे अनेक प्रकारात असू शकते. कृत्रिम बुद्धिमत्तेच्या क्षेत्रात, सेन्सॉरशिप खालीलप्रमाणे दिसून येते:
- सामग्री फिल्टरिंग (Content filtering): विशिष्ट प्रकारची सामग्री तयार करण्यापासून किंवा प्रदर्शित करण्यापासून मॉडेलला रोखणे, जसे की राजकीयदृष्ट्या संवेदनशील विषय, हिंसा, भेदभाव इत्यादी.
- माहितीमध्ये फेरफार (Information distortion): मॉडेलद्वारे सादर केलेली माहिती विशिष्ट विचारधारेनुसार बदलली जाते किंवा चुकीच्या पद्धतीने दर्शविली जाते.
- उत्तरांचे टाळाटाळ(Answer avoidance): मॉडेल काही प्रश्नांची उत्तरे देण्यास नकार देते किंवा संदिग्ध उत्तरे देते.
- प्रॉम्प्ट इंजिनीअरिंग (Prompt engineering): विशिष्ट हेतू साध्य करण्यासाठी मॉडेलला मार्गदर्शन करण्यासाठी तयार केलेले सूचना वापरणे.
डीपसीक आर1-0528 च्या उदाहरणावरून असे दिसून येते की, मॉडेलने अनेक सेन्सॉरशिप पद्धती वापरल्या आहेत, विशेषत: जेव्हा चीन सरकारशी संबंधित संवेदनशील विषय असतात.
##सेन्सॉरशिपची कारणे आणि प्रेरणा
कृत्रिम बुद्धिमत्ता मॉडेल सेन्सॉरशिप (AI model censorship) करण्यामागे अनेक कारणे आणि प्रेरणा असू शकतात:
- कायदे आणि नियम (Laws and regulations): काही देश किंवा प्रदेशांमध्ये कायदे आहेत, ज्यानुसार कृत्रिम बुद्धिमत्ता मॉडेलने विशिष्ट माहिती नियंत्रण मानकांचे पालन करणे आवश्यक आहे. उदाहरणार्थ, चीनमधील संबंधित कायदे “राष्ट्राची एकता आणि सामाजिक सौहार्द बिघडवणारी” सामग्री तयार करण्यास मनाई करतात.
- राजकीय दबाव (Political pressure): सरकार किंवा राजकीय गट कृत्रिम बुद्धिमत्ता कंपन्यांवर त्यांच्या राजकीय हितांचे रक्षण करण्यासाठी मॉडेलच्या सामग्रीवर सेन्सॉरशिप लावण्यासाठी दबाव आणू शकतात.
- सामाजिक जबाबदारी (Social responsibility): कृत्रिम बुद्धिमत्ता कंपन्या सामाजिक जबाबदारीच्या भावनेतून हानिकारक माहितीचा प्रसार टाळण्यासाठी किंवा सामाजिक अशांतता टाळण्यासाठी सक्रियपणे मॉडेल सामग्रीवर सेन्सॉरशिप करू शकतात.
- व्यावसायिक हित (Commercial interests): सरकार किंवा जनतेला नाराज करणे टाळण्यासाठी, कृत्रिम बुद्धिमत्ता कंपन्या त्यांच्या व्यावसायिक हितांचे रक्षण करण्यासाठी मॉडेल सामग्रीवर सेन्सॉरशिप करू शकतात.
डीपसीक, एक चीनी कृत्रिम बुद्धिमत्ता कंपनी (Chinese AI company) असल्याने, कायदे, राजकीय दबाव आणि सामाजिक जबाबदारी यांसारख्या अनेक बाबी विचारात घ्याव्या लागतात, ज्यामुळे त्यांना आर1-0528 वर सेन्सॉरशिप लागू करावी लागते.
##सेन्सॉरशिपचे संभाव्य परिणाम
कृत्रिम बुद्धिमत्ता मॉडेल सेन्सॉरशिपचे (AI model censorship) खालील संभाव्य परिणाम (potential effects) होऊ शकतात:
- माहिती मिळवण्यावर मर्यादा (Restricting access to information): सेन्सॉरशिप वापरकर्त्यांना (users) सर्वंकष आणि वस्तुनिष्ठ माहिती मिळवण्यापासून प्रतिबंधित करते, ज्यामुळे त्यांच्या निर्णयावर परिणाम होतो.
- नवीनतेला खीळ (Suppression of innovation): सेन्सॉरशिप कृत्रिम बुद्धिमत्ता तंत्रज्ञानाच्या विकासास प्रतिबंधित करते, कारण संशोधक (researchers) विविध कल्पना शोधण्यात आणि त्यांची चाचणी घेण्यात सक्षम नसतात.
- सामाजिक मतभेद वाढवणे (Exacerbating social divisions): सेन्सॉरशिप सामाजिक मतभेद वाढवू शकते, कारण विविध गट केवळ त्यांच्या स्वतःच्या दृष्टिकोनानुसार माहिती मिळवू शकतात.
- विश्वासाला तडा (Damaging trust): वापरकर्त्यांना कृत्रिम बुद्धिमत्ता मॉडेलमध्ये सेन्सॉरशिप (censorship) आढळल्यास, त्यांचा त्या मॉडेलवरील (model) विश्वास उडतो.
डीपसीक आर1-0528 च्या उदाहरणावरून असे दिसून येते की, सेन्सॉरशिप चीन सरकारशी संबंधित संवेदनशील विषयांवर माहिती मिळवण्यावर निर्बंध आणू शकते
##कृत्रिम बुद्धिमत्ता सेन्सॉरशिपला (AI censorship) तोंड देण्यासाठी रणनीती
कृत्रिम बुद्धिमत्ता सेन्सॉरशिपला (AI censorship) तोंड देण्यासाठी खालील रणनीती (strategies) वापरल्या जाऊ शकतात:
- तांत्रिक साधने (Technical means): सेन्सॉरशिप फिल्टर शोधण्यासाठी आणि बायपास (bypass) करण्यासाठी तंत्रज्ञान विकसित करणे.
- कायदेशीर कारवाई (Legal action): अभिव्यक्ती स्वातंत्र्याचे उल्लंघन (violation of freedom of speech) करणाऱ्या सेन्सॉरशिप (censorship) विरोधात कायदेशीर कारवाई करणे.
- सार्वजनिक समर्थन (Public advocacy): कृत्रिम बुद्धिमत्ता सेन्सॉरशिपबद्दल (AI censorship) लोकांमध्ये जागरूकता वाढवणे आणि सरकार आणि कंपन्यांना कारवाई करण्याचे आवाहन करणे.
- विकेंद्रीकृत कृत्रिम बुद्धिमत्ता (Decentralized AI): सेन्सॉरशिपची शक्यता कमी करण्यासाठी विकेंद्रीकृत कृत्रिम बुद्धिमत्ता प्लॅटफॉर्म (decentralized AI platform) विकसित करणे.
- ओपन-सोर्स सहयोग (Open-source collaboration): अधिक खुले आणि पारदर्शक कृत्रिम बुद्धिमत्ता मॉडेल (AI model) विकसित करण्यासाठी ओपन-सोर्स सहकार्यास प्रोत्साहन देणे.
##डीपसीकची प्रतिक्रिया
डीपसीकने (DeepSeek) आर1-0528 सेन्सॉरशिप (censorship) आरोपांवर अद्याप सार्वजनिकपणे प्रतिक्रिया दिलेली नाही. डीपसीकने यावर प्रतिक्रिया दिल्यास, खालील बाबींवर लक्ष केंद्रित करणे महत्त्वाचे आहे:
- डीपसीकने (DeepSeek) R1-0528 वर सेन्सॉरशिप (censorship) केल्याचे मान्य केले आहे का?
- जर मान्य केले, तर डीपसीकच्या सेन्सॉरशिपची कारणे आणि प्रेरणा काय आहेत?
- डीपसीक (DeepSeek) त्यांची सेन्सॉरशिप (censorship) धोरणे बदलण्याची योजना आखत आहे का?
- डीपसीक (DeepSeek) तांत्रिक प्रगती आणि माहिती स्वातंत्र्यात (information freedom) कसा समतोल राखते?
डीपसीकची (DeepSeek) प्रतिक्रिया कृत्रिम बुद्धिमत्ता उद्योगावर (AI industry) महत्त्वपूर्ण प्रभाव टाकेल.
##सेन्सॉरशिप आणि नैतिकतेवरील चर्चा
कृत्रिम बुद्धिमत्ता सेन्सॉरशिपमुळे (AI censorship) अनेक नैतिक प्रश्न (ethical questions) निर्माण होतात, ज्यात खालील गोष्टींचा समावेश आहे:
- भाषण स्वातंत्र्य (Freedom of speech): कृत्रिम बुद्धिमत्ता मॉडेलला (AI model) भाषण स्वातंत्र्याचा अधिकार असावा का?
- माहिती मिळवणे (Access to information): वापरकर्त्यांना (users) सर्वसमावेशक आणि वस्तुनिष्ठ माहिती मिळवण्याचा अधिकार आहे का?
- पारदर्शकता (Transparency): कृत्रिम बुद्धिमत्ता कंपन्यांनी (AI companies) त्यांची सेन्सॉरशिप (censorship) धोरणे सार्वजनिक करणे बंधनकारक आहे का?
- जबाबदारी (Responsibility): कृत्रिम बुद्धिमत्ता सेन्सॉरशिपसाठी (AI censorship) कोण जबाबदार असावे?
- विश्वास (Trust): कृत्रिम बुद्धिमत्तेच्या युगात (AI era) विश्वास कसा निर्माण करायचा?
या नैतिक प्रश्नांवर (ethical questions) सखोल विचार करणे आवश्यक आहे.
##चीनमधील सेन्सॉरशिपची (censorship) विशिष्टता
चीनमधील सेन्सॉरशिपची (censorship) काही विशिष्ट वैशिष्ट्ये (special features) आहेत, जी खालीलप्रमाणे आहेत:
- व्यापक व्याप्ती (Wide range): चीनमध्ये सेन्सॉरशिपची (censorship) व्याप्ती राजकारण, इतिहास, संस्कृती, धर्म यांसारख्या अनेक क्षेत्रांमध्ये पसरलेली आहे.
- कडक अंमलबजावणी (Strict enforcement): चीनमध्ये सेन्सॉरशिपची (censorship) अंमलबजावणी अत्यंत कडक आहे, ज्यामध्ये व्यक्तींच्या बोलण्यावरही नियंत्रण ठेवले जाते.
- प्रगत तंत्रज्ञान (Advanced technology): चीनकडे (China) मोठी सेन्सॉरशिप टीम (censorship team) आहे, जी प्रगत तंत्रज्ञानाचा वापर करते.
- कायदेशीर आधार (Legal support): चीनने (China) सेन्सॉरशिपला (censorship) कायदेशीर आधार देण्यासाठी अनेक कायदे आणि नियम बनवले आहेत.
या वैशिष्ट्यांमुळे चीनमध्ये कृत्रिम बुद्धिमत्ता मॉडेल (AI model) विकसित करणे एक मोठे आव्हान आहे.
##जागतिक कृत्रिम बुद्धिमत्ता सेन्सॉरशिपची (AI censorship) तुलना
चीन व्यतिरिक्त, इतर देशांमध्येही वेगवेगळ्या स्वरूपात कृत्रिम बुद्धिमत्ता सेन्सॉरशिप (AI censorship) अस्तित्वात आहे, जी खालीलप्रमाणे आहे:
- युरोप (Europe): युरोपियन युनियनने (European Union) कृत्रिम बुद्धिमत्तेच्या (Artificial Intelligence) वापराचे नियमन करण्यासाठी आणि तेथे कोणताही भेदभाव (discrimination) किंवा मानवाधिकार उल्लंघ (human rights violation) होऊ नये यासाठी ‘कृत्रिम बुद्धिमत्ता कायदा’ (Artificial Intelligence Act) लागू केला आहे.
- अमेरिका (America): अमेरिका (America) मुख्यतः बाजारातील यंत्रणा (market mechanism) आणि उद्योगांच्या स्वयं-नियमांद्वारे (self-regulation) कृत्रिम बुद्धिमत्तेच्या (Artificial Intelligence) विकासाचे नियमन करते, परंतु सामग्री सेन्सॉरशिप (content censorship) बाबत काही विवाद आहेत.
- इतर देश (Other countries): इतर देशांनीही आपापल्या परिस्थितीनुसार कृत्रिम बुद्धिमत्ता नियमन धोरणे (AI regulation policies) तयार केली आहेत, ज्यामध्ये काही धोरणांमध्ये सामग्री सेन्सॉरशिपचा (content censorship) समावेश असू शकतो.
वेगवेगळ्या देशांमधील कृत्रिम बुद्धिमत्ता सेन्सॉरशिपची (AI censorship) तुलना करून, सेन्सॉरशिपची (censorship) गुंतागुंत आणि विविधता अधिक चांगल्या प्रकारे समजू शकते.
##कृत्रिम बुद्धिमत्ता सेन्सॉरशिपचे (AI censorship) भविष्य
कृत्रिम बुद्धिमत्ता सेन्सॉरशिपचे (AI censorship) भविष्य खालीलप्रमाणे असू शकते:
- तंत्रज्ञानाचा विकास (Technological progress): सेन्सॉरशिप (censorship) तंत्रज्ञान आणि अँटी-सेन्सॉरशिप (anti-censorship) तंत्रज्ञान सतत विकसित होतील.
- नियमांमध्ये वाढ (Increased regulation): सरकार कृत्रिम बुद्धिमत्तेच्या (Artificial Intelligence) नियमांमध्ये वाढ करू शकतात, ज्यात सामग्री सेन्सॉरशिपचा (content censorship) समावेश आहे.
- आंतरराष्ट्रीय सहकार्य (International cooperation): सरकार कृत्रिम बुद्धिमत्तेच्या (Artificial Intelligence) प्रशासनामध्ये आंतरराष्ट्रीय सहकार्य वाढवू शकतात, ज्यात सामग्री सेन्सॉरशिपचा (content censorship) समावेश आहे.
- सामाजिक लक्ष (Social attention): समाज कृत्रिम बुद्धिमत्ता सेन्सॉरशिपच्या (AI censorship) परिणामांवर अधिक लक्ष देईल आणि अधिक जबाबदार दृष्टीकोन (responsible approach) घेण्याचे आवाहन करेल.
##डीपसीकवर (DeepSeek) सेन्सॉरशिपचा (censorship) प्रभाव
डीपसीक (DeepSeek), एक चीनी कृत्रिम बुद्धिमत्ता कंपनी (Chinese AI company) असल्याने, तिच्या विकासावर चीनच्या सेन्सॉरशिपचा (censorship) खूप प्रभाव आहे. डीपसीकला (DeepSeek) चीनचे कायदे आणि नियम (laws and regulations) पाळणे आणि वापरकर्त्यांच्या (users) गरजा पूर्ण करणे यांमध्ये समतोल साधावा लागेल. डीपसीकचे (DeepSeek) भविष्य सेन्सॉरशिपमुळे (censorship) येणाऱ्या आव्हानांना कसे सामोरे जाते यावर अवलंबून असेल.
##कृत्रिम बुद्धिमत्ता आणि पूर्वग्रह (AI and prejudice)
सेन्सॉरशिप (censorship) आणि कृत्रिम बुद्धिमत्तेतील (Artificial Intelligence) पूर्वग्रह (prejudice) यांचा खूप जवळचा संबंध आहे. सेन्सॉरशिपमुळे मॉडेल (model) केवळ काही माहिती शिकू शकते, ज्यामुळे पूर्वग्रह निर्माण होऊ शकतात. डीपसीकला (DeepSeek) हे सुनिश्चित करण्यासाठी उपाययोजना (measures) कराव्या लागतील की त्यांचे मॉडेल (model) सर्वसमावेशक (comprehensive) आणि वस्तुनिष्ठ (objective) माहिती शिकेल आणि पूर्वग्रह टाळेल.
##पारदर्शकता आणि स्पष्टता (Transparency and interpretability)
सेन्सॉरशिपमुळे (censorship) येणाऱ्या आव्हानांना तोंड देण्यासाठी, डीपसीकने (DeepSeek) त्यांच्या मॉडेलमध्ये (model) पारदर्शकता (transparency) आणि स्पष्टता (interpretability) वाढवावी. डीपसीकने (DeepSeek) त्यांची सेन्सॉरशिप (censorship) धोरणे सार्वजनिक करावीत आणि त्यांचे मॉडेल (model) संवेदनशील (sensitive) विषयांना कसे हाताळते हे स्पष्ट करावे. यामुळे वापरकर्त्यांचा (users) विश्वास निर्माण होण्यास मदत होईल आणि कृत्रिम बुद्धिमत्तेचा (Artificial Intelligence) विकास अधिक चांगल्या प्रकारे होईल.
##सारांश
डीपसीक आर1-0528 चे (DeepSeek R1-0528) उदाहरण कृत्रिम बुद्धिमत्ता सेन्सॉरशिपची (AI censorship) गुंतागुंत आणि महत्त्व दर्शवते. सेन्सॉरशिपचा (censorship) माहिती मिळवणे, तांत्रिक नवोपक्रम (technical innovation), सामाजिक मतभेद (social division) आणि वापरकर्त्यांच्या (users) विश्वासावर महत्त्वपूर्ण परिणाम होतो. सेन्सॉरशिपला (censorship) तोंड देण्यासाठी तांत्रिक साधने (technical means), कायदेशीर कारवाई (legal action), सार्वजनिक समर्थन (public advocacy), विकेंद्रीकृत कृत्रिम बुद्धिमत्ता (decentralized AI) आणि ओपन-सोर्स सहकार्य (open-source collaboration) यांसारख्या अनेक धोरणांची (strategies) आवश्यकता आहे. डीपसीक (DeepSeek), एक चीनी कृत्रिम बुद्धिमत्ता कंपनी (Chinese AI company) असल्याने, चीनचे कायदे आणि नियम (laws and regulations) पाळणे आणि वापरकर्त्यांच्या (users) गरजा पूर्ण करणे यांमध्ये समतोल साधावा लागेल. डीपसीकने (DeepSeek) सेन्सॉरशिपमुळे (censorship) येणाऱ्या आव्हानांना तोंड देण्यासाठी त्यांच्या मॉडेलमध्ये (model) पारदर्शकता (transparency) आणि स्पष्टता (interpretability) वाढवावी.