प्रगत संवादात्मक कृत्रिम बुद्धिमत्ता (conversational artificial intelligence) प्लॅटफॉर्म्सच्या जलद वाढीने डिजिटल संवादांना निःसंशयपणे नवीन आकार दिला आहे. माहिती मिळवणे, सामग्री तयार करणे आणि स्वयंचलित संवाद साधणे यांमध्ये अभूतपूर्व क्षमता प्रदान केली आहे. ChatGPT आणि त्याच्या समकालीन साधनांनी जागतिक कल्पनाशक्तीला पकडले आहे, मोठ्या भाषिक मॉडेल्स (LLMs) ची मानवी संवादाची नक्कल करण्याची आणि गुंतागुंतीची कार्ये करण्याची शक्ती दर्शविली आहे. तरीही, या तांत्रिक वाढीचे सार्वत्रिक स्वागत झालेले नाही. उलट, अनेक राष्ट्रे अडथळे उभारत आहेत, या शक्तिशाली AI प्रणालींवर पूर्ण बंदी किंवा कठोर नियम लागू करत आहेत. हा विरोध वैयक्तिक गोपनीयता (individual privacy), चुकीच्या माहितीचे शस्त्रीकरण (weaponization of misinformation), राष्ट्रीय सुरक्षेला (national security) धोका आणि राजकीय व वैचारिक नियंत्रण (political and ideological control) राखण्याची इच्छा यांसारख्या चिंतांच्या गुंतागुंतीच्या जाळ्यातून निर्माण झाला आहे. या निर्बंधांमागील विविध प्रेरणा समजून घेणे AI प्रशासनाच्या बदलत्या जागतिक परिस्थितीला समजून घेण्यासाठी महत्त्वाचे आहे. जगभरातील राजधान्यांमध्ये आज घेतलेले निर्णय AI विकास आणि उपयोजनाच्या मार्गाला महत्त्वपूर्ण आकार देतील, ज्यामुळे उपलब्धता आणि नियंत्रणाचे एक असे जाळे तयार होईल जे खोलवर रुजलेल्या राष्ट्रीय प्राधान्यक्रम आणि भीती दर्शवते.
इटलीची भूमिका: गोपनीयतेच्या गरजेमुळे तात्पुरती बंदी
पाश्चिमात्य जगात पडसाद उमटवणाऱ्या एका हालचालीत, इटली एका प्रमुख जनरेटिव्ह AI प्लॅटफॉर्मवर प्रतिबंधात्मक उपाययोजना करणारा एक उल्लेखनीय प्रारंभिक देश बनला. मार्च 2023 मध्ये, इटालियन डेटा प्रोटेक्शन अथॉरिटी, जी Garante per la protezione dei dati personali म्हणून ओळखली जाते, तिने देशाच्या हद्दीत OpenAI च्या ChatGPT सेवेवर तात्पुरती स्थगिती आणण्याचा आदेश दिला. हा निर्णय अमूर्त भीतीवर आधारित नव्हता, तर युरोपियन युनियनच्या जनरल डेटा प्रोटेक्शन रेग्युलेशन (GDPR) मध्ये समाविष्ट असलेल्या कठोर डेटा गोपनीयता नियमांचे पालन न करण्याच्या विशिष्ट आरोपांवर आधारित होता.
Garante ने अनेक महत्त्वपूर्ण मुद्दे मांडले:
- डेटा संकलनासाठी कायदेशीर आधाराचा अभाव: ChatGPT च्या अल्गोरिदमला प्रशिक्षित करण्यासाठी OpenAI द्वारे कथितरित्या मोठ्या प्रमाणात गोळा केलेल्या वैयक्तिक डेटाबद्दल प्राथमिक चिंता होती. इटालियन प्राधिकरणाने या मोठ्या प्रमाणावरील संकलन आणि प्रक्रियेसाठी कायदेशीर समर्थनावर प्रश्नचिन्ह उपस्थित केले, विशेषतः GDPR नुसार वापरकर्त्यांनी माहितीपूर्ण संमती दिली होती का. वापरलेले विशिष्ट डेटासेट आणि वापरलेल्या पद्धतींबद्दलची अपारदर्शकता या चिंतांना खतपाणी घालत होती.
- अपुरी वय पडताळणी यंत्रणा: Garante ने अल्पवयीन मुलांना सेवेचा वापर करण्यापासून रोखण्यासाठी मजबूत प्रणालींच्या अभावावर प्रकाश टाकला. ChatGPT ची अक्षरशः कोणत्याही विषयावर सामग्री तयार करण्याची क्षमता पाहता, अल्पवयीन वापरकर्त्यांना संभाव्यतः अयोग्य किंवा हानिकारक सामग्रीसमोर आणण्याबद्दल महत्त्वपूर्ण चिंता होत्या. GDPR मुलांच्या डेटावर प्रक्रिया करण्यावर कठोर मर्यादा घालते आणि प्रभावी वय पडताळणी लागू करण्यात आलेले अपयश हे गंभीर उल्लंघन मानले गेले.
- माहितीची अचूकता आणि चुकीच्या माहितीची शक्यता: बंदीचा प्राथमिक कायदेशीर आधार नसला तरी, प्राधिकरणाने AI चॅटबॉट्स व्यक्तींबद्दल चुकीची माहिती देऊ शकतात, ज्यामुळे संभाव्यतः प्रतिष्ठेला हानी पोहोचू शकते किंवा खोट्या गोष्टींचा प्रसार होऊ शकतो, यावरही लक्ष वेधले.
OpenAI ने Garante च्या मागण्या पूर्ण करण्यासाठी सक्रियपणे प्रतिसाद दिला. कंपनीने आपल्या डेटा प्रक्रिया पद्धतींबद्दल पारदर्शकता वाढवण्यासाठी काम केले, वापरकर्त्यांना त्यांची माहिती कशी वापरली जाते याचे स्पष्टीकरण दिले. महत्त्वाचे म्हणजे, साइन-अप करताना अधिक स्पष्ट वय पडताळणी उपाय लागू केले आणि युरोपियन वापरकर्त्यांना त्यांच्या डेटावर अधिक नियंत्रण देणारी साधने सादर केली, ज्यात मॉडेल प्रशिक्षणासाठी त्यांच्या संवादांचा वापर न करण्याचा पर्याय (opt-out) समाविष्ट होता. या समायोजनांनंतर, ज्याचा उद्देश सेवेला GDPR तत्त्वांच्या अधिक जवळ आणणे हा होता, सुमारे एका महिन्यानंतर बंदी उठवण्यात आली. इटलीच्या तात्पुरत्या बंदीने जगभरातील टेक कंपन्यांना एक शक्तिशाली आठवण करून दिली की युरोपियन नियामक वातावरणात, विशेषतः डेटा गोपनीयतेच्या बाबतीत, नियमांचे काटेकोरपणे पालन करणे आवश्यक आहे. याने EU मधील डेटा संरक्षण प्राधिकरणांच्या नियमांची अंमलबजावणी करण्याची आणि अगदी मोठ्या जागतिक तंत्रज्ञान कंपन्यांकडूनही जबाबदारी मागण्याची शक्ती अधोरेखित केली, ज्यामुळे समान चिंतांशी झगडणाऱ्या इतर राष्ट्रांसाठी एक संभाव्य उदाहरण स्थापित झाले.
चीनची भिंत: कठोर देखरेखीखाली देशांतर्गत AI ची लागवड
चीनचा संवादात्मक AI कडे पाहण्याचा दृष्टिकोन त्याच्या सीमेअंतर्गत माहितीच्या प्रवाहावर कठोर नियंत्रण ठेवण्याच्या दीर्घकालीन धोरणाशी खोलवर जोडलेला आहे. देश इंटरनेट सेन्सॉरशिपच्या एका अत्याधुनिक प्रणाली अंतर्गत कार्यरत आहे, ज्याला अनेकदा “Great Firewall” म्हटले जाते, जी अनेक परदेशी वेबसाइट्स आणि ऑनलाइन सेवांमध्ये प्रवेश अवरोधित करते. त्यामुळे, ChatGPT सारखे जागतिक स्तरावर लोकप्रिय AI चॅटबॉट्स मुख्य भूमी चीनमध्ये त्वरीत प्रवेश करण्यायोग्य नव्हते हे आश्चर्यकारक नव्हते.
यामागील तर्क केवळ सेन्सॉरशिपच्या पलीकडे जातो; तो एका बहुआयामी सरकारी धोरणाचे प्रतिबिंब आहे:
- अमान्य माहिती आणि मतभेद रोखणे: जागतिक इंटरनेटवरील प्रचंड डेटासेटवर प्रशिक्षित अनियंत्रित AI मॉडेल्स, चीनी कम्युनिस्ट पक्षाच्या अधिकृत कथनाच्या विरोधात असलेली माहिती किंवा दृष्टिकोन प्रसारित करू शकतात, ही सरकारची प्राथमिक चिंता आहे. अशी साधने मतभेद संघटित करण्यासाठी, ‘हानिकारक’ विचारसरणी पसरवण्यासाठी किंवा राज्य सेन्सॉरशिप यंत्रणेला बगल देण्यासाठी वापरली जाऊ शकतात, ज्यामुळे सामाजिक स्थिरता आणि राजकीय नियंत्रण धोक्यात येईल, अशी खोलवर रुजलेली भीती आहे.
- चुकीच्या माहितीचा मुकाबला (राज्याने परिभाषित): पाश्चिमात्य देश AI द्वारे चुकीची माहिती निर्माण होण्याबद्दल चिंतित असताना, बीजिंगची चिंता राजकीयदृष्ट्या संवेदनशील किंवा अस्थिर मानल्या जाणाऱ्या माहितीवर केंद्रित आहे. सरकारी देखरेखीबाहेर कार्यरत असलेला AI अशा सामग्रीसाठी एक अप्रत्याशित वाहक म्हणून पाहिला जातो.
- तंत्रज्ञानात्मक सार्वभौमत्वाला प्रोत्साहन: चीनला कृत्रिम बुद्धिमत्तेत जागतिक नेता बनण्याची महत्त्वाकांक्षा आहे. परदेशी AI सेवा अवरोधित केल्याने देशांतर्गत पर्यायांसाठी संरक्षित बाजारपेठ तयार होते. हे धोरण स्वदेशी AI कंपन्यांच्या वाढीस प्रोत्साहन देते, ज्यामुळे या महत्त्वपूर्ण तंत्रज्ञानाचा विकास आणि उपयोजन राष्ट्रीय हितसंबंध आणि नियामक चौकटींशी जुळवून घेते. Baidu (त्याच्या Ernie Bot सह), Alibaba आणि Tencent सारख्या कंपन्या चीनी बाजारपेठेसाठी तयार केलेले आणि सरकारी निर्देशांचे पालन करणारे LLMs सक्रियपणे विकसित करत आहेत.
- डेटा सुरक्षा: AI विकास देशांतर्गत ठेवणे चीनच्या वाढत्या कठोर डेटा सुरक्षा कायद्यांशी देखील सुसंगत आहे, जे डेटाच्या सीमापार हस्तांतरणावर नियंत्रण ठेवतात आणि महत्त्वपूर्ण माहिती पायाभूत सुविधा ऑपरेटर्सना डेटा स्थानिक पातळीवर संग्रहित करणे आवश्यक करतात. देशांतर्गत AI वर अवलंबून राहिल्याने परदेशी प्लॅटफॉर्म्सवरील अवलंबित्व कमी होते जे चीनी वापरकर्त्यांचा डेटा परदेशात हस्तांतरित करू शकतात.
म्हणून, चीनची ‘बंदी’ AI तंत्रज्ञान नाकारण्याबद्दल कमी आणि त्याचा विकास व अनुप्रयोग राज्य-नियंत्रित परिसंस्थेत सुनिश्चित करण्याबद्दल अधिक आहे. AI चे आर्थिक आणि तांत्रिक फायदे मिळवणे आणि त्याच वेळी परदेशी प्लॅटफॉर्म्सवर अनिर्बंध प्रवेशाशी संबंधित राजकीय आणि सामाजिक धोके कमी करणे हे ध्येय आहे. हा दृष्टिकोन एक अद्वितीय AI परिदृश्य तयार करतो जिथे नवोपक्रमाला प्रोत्साहन दिले जाते, परंतु केवळ राज्याने निश्चित केलेल्या स्पष्ट सीमांमध्येच.
रशियाचा डिजिटल लोह पडदा: राष्ट्रीय सुरक्षा आणि माहिती नियंत्रण
रशियाची परदेशी संवादात्मक AI बाबतची भूमिका त्याच्या व्यापक भू-राजकीय स्थिती आणि राष्ट्रीय सुरक्षा व तांत्रिक सार्वभौमत्वावर वाढत्या केंद्रीकरणाचे प्रतिबिंब आहे, विशेषतः पाश्चिमात्य राष्ट्रांशी वाढलेल्या तणावाच्या पार्श्वभूमीवर. इटलीच्या तात्पुरत्या उपायाप्रमाणे नेहमी स्पष्ट, व्यापकपणे प्रसिद्ध केलेल्या बंदीच्या रूपात नसले तरी, ChatGPT सारख्या प्लॅटफॉर्म्सवरील प्रवेश प्रतिबंधित किंवा अविश्वसनीय राहिला आहे आणि सरकार सक्रियपणे देशांतर्गत पर्यायांना प्रोत्साहन देत आहे.
रशियाच्या मर्यादांमागील मुख्य प्रेरणांमध्ये हे समाविष्ट आहे:
- राष्ट्रीय सुरक्षा चिंता: रशियन सरकार परदेशी तंत्रज्ञान प्लॅटफॉर्म्सवर, विशेषतः शत्रू मानल्या जाणाऱ्या देशांमधून उगम पावलेल्या प्लॅटफॉर्म्सवर, महत्त्वपूर्ण अविश्वास ठेवते. परदेशात विकसित झालेले अत्याधुनिक AI चॅटबॉट्स हेरगिरी, गुप्तचर माहिती गोळा करणे किंवा रशियन हितसंबंधांविरुद्ध सायबर युद्ध कारवायांसाठी वापरले जाऊ शकतात, अशी स्पष्ट भीती आहे. या साधनांची संवेदनशील माहितीमध्ये प्रवेश करण्याची किंवा परदेशी घटकांकडून हाताळले जाण्याची शक्यता ही प्राथमिक सुरक्षा चिंता आहे.
- परदेशी प्रभाव आणि ‘माहिती युद्धाचा’ मुकाबला: मॉस्को माहितीवर नियंत्रण ठेवणे राष्ट्रीय सुरक्षेचा एक महत्त्वपूर्ण घटक मानते. परदेशी AI चॅटबॉट्स पाश्चिमात्य प्रचार, ‘फेक न्यूज’ किंवा रशियातील राजकीय परिस्थिती अस्थिर करण्याच्या किंवा जनमतावर प्रभाव टाकण्याच्या उद्देशाने असलेल्या कथनांसाठी संभाव्य माध्यम म्हणून पाहिले जातात. प्रवेश प्रतिबंधित करणे हे कथित माहिती युद्ध मोहिमांविरुद्ध एक बचावात्मक उपाय आहे.
- देशांतर्गत तंत्रज्ञानाला प्रोत्साहन: चीनप्रमाणेच, रशिया ‘डिजिटल सार्वभौमत्व’ धोरणाचा पाठपुरावा करत आहे, ज्याचा उद्देश परदेशी तंत्रज्ञानावरील अवलंबित्व कमी करणे आहे. यामध्ये AI सह विविध तंत्रज्ञान क्षेत्रांमध्ये स्वदेशी पर्याय विकसित करण्यासाठी महत्त्वपूर्ण गुंतवणूक समाविष्ट आहे. Yandex, ज्याला अनेकदा ‘रशियाचे Google’ म्हटले जाते, त्याने स्वतःचा AI सहाय्यक, Alice (Alisa), आणि इतर मोठे भाषिक मॉडेल्स विकसित केले आहेत. या देशांतर्गत प्लॅटफॉर्म्सना प्रोत्साहन दिल्याने अधिक सरकारी देखरेख सुनिश्चित होते आणि AI विकास राष्ट्रीय धोरणात्मक उद्दिष्टांशी जुळतो.
- नियामक नियंत्रण: परदेशी AI मर्यादित करून आणि देशांतर्गत पर्यायांना पसंती देऊन, रशियन सरकार सामग्री नियंत्रण, डेटा स्टोरेज (अनेकदा रशियामध्ये डेटा स्थानिकीकरण आवश्यक असते) आणि राज्य सुरक्षा सेवांशी सहकार्य यासंबंधीचे स्वतःचे नियम अधिक सहजपणे लागू करू शकते. देशांतर्गत कंपन्या सामान्यतः त्यांच्या परदेशी समकक्षांपेक्षा सरकारी दबाव आणि कायदेशीर आवश्यकतांना अधिक बळी पडतात.
रशियामधील परदेशी AI वरील निर्बंध हे डिजिटल क्षेत्रावर नियंत्रण प्रस्थापित करण्याच्या मोठ्या पॅटर्नचा भाग आहेत, जे सुरक्षा चिंता, राजकीय उद्दिष्ट्ये आणि बाह्य दबाव व प्रभावांपासून संरक्षित असलेल्या आत्मनिर्भर तंत्रज्ञान क्षेत्राला चालना देण्याच्या इच्छेमुळे प्रेरित आहेत. हे वातावरण राज्य-मान्यताप्राप्त किंवा राज्य-संलग्न तंत्रज्ञान प्रदात्यांना अनुकूल आहे, ज्यामुळे देशात कार्यरत राहू इच्छिणाऱ्या आंतरराष्ट्रीय AI प्लॅटफॉर्म्ससाठी आव्हाने निर्माण होतात.
इराणचा सावध दृष्टिकोन: बाह्य विचारसरणींपासून संरक्षण
इराणचे कृत्रिम बुद्धिमत्तेचे नियमन, ज्यात संवादात्मक चॅटबॉट्सचा समावेश आहे, त्याच्या अद्वितीय राजकीय प्रणाली आणि पाश्चिमात्य राष्ट्रांशी असलेल्या अनेकदा विरोधी संबंधांमुळे मोठ्या प्रमाणावर प्रभावित आहे. सरकार इंटरनेट प्रवेश आणि सामग्रीवर कठोर नियंत्रण ठेवते, अनियंत्रित तंत्रज्ञानाला त्याच्या अधिकारासाठी आणि सांस्कृतिक मूल्यांसाठी संभाव्य धोका मानते.
परदेशी AI चॅटबॉट्सवरील निर्बंध अनेक परस्परसंबंधित घटकांमुळे आहेत:
- पाश्चिमात्य प्रभाव आणि ‘सांस्कृतिक आक्रमणा’ला प्रतिबंध: इराणी नेतृत्व परदेशी तंत्रज्ञान पाश्चिमात्य सांस्कृतिक आणि राजकीय विचारसरणीसाठी माध्यम म्हणून काम करू शकते याबद्दल खोलवर चिंतित आहे, ज्याला ते इस्लामिक मूल्ये आणि इस्लामिक प्रजासत्ताकाच्या तत्त्वांना कमजोर करणारे मानते. जागतिक डेटावर प्रशिक्षित AI चॅटबॉट्सवर अनिर्बंध प्रवेश नागरिकांना, विशेषतः तरुणांना, संभाव्यतः ‘विघातक’ किंवा ‘गैर-इस्लामिक’ कल्पना आणि दृष्टिकोनांसमोर आणण्याचा धोका म्हणून पाहिला जातो.
- राज्य सेन्सॉरशिपला बगल देणे: अत्याधुनिक AI साधने वापरकर्त्यांना इराणी राज्याने वापरलेल्या व्यापक इंटरनेट फिल्टरिंग आणि सेन्सॉरशिप यंत्रणेला बगल देण्याचे मार्ग देऊ शकतात. AI द्वारे मुक्तपणे माहिती मिळवण्याची किंवा सामग्री तयार करण्याची क्षमता सरकारच्या माहितीच्या परिदृश्यावरील नियंत्रणाला आव्हान देऊ शकते.
- राजकीय स्थिरता राखणे: चीन आणि रशियाप्रमाणेच, इराण अनियंत्रित माहिती प्रवाहाला सामाजिक अशांतता किंवा राजकीय विरोधासाठी संभाव्य उत्प्रेरक म्हणून पाहतो. AI चॅटबॉट्स, त्यांच्या प्रभावी मजकूर तयार करण्याच्या आणि संवादात गुंतण्याच्या क्षमतेसह, संभाव्यतः निषेध आयोजित करण्यासाठी किंवा सरकारविरोधी भावना पसरवण्यासाठी वापरली जाऊ शकणारी साधने म्हणून पाहिली जातात.
- राज्य-मान्यताप्राप्त पर्यायांना प्रोत्साहन: चीन किंवा रशियाइतके प्रगत नसले तरी, राज्य नियम आणि वैचारिक आवश्यकतांशी जुळणारे AI तंत्रज्ञान विकसित करण्यात किंवा त्याला मान्यता देण्यात स्वारस्य आहे. केवळ मंजूर AI मॉडेल्सना परवानगी दिल्याने तंत्रज्ञान सरकारने ठरवलेल्या सीमांमध्ये कार्यरत राहील आणि इराणी कायदे किंवा सांस्कृतिक नियमांचे उल्लंघन करणार नाही याची खात्री होते.
इराणचा दृष्टिकोन परदेशी तंत्रज्ञानाच्या त्याच्या अंतर्गत बाबींवर आणि वैचारिक चौकटीवर होणाऱ्या संभाव्य परिणामाबद्दल खोलवर रुजलेल्या संशयाने वैशिष्ट्यीकृत आहे. AI चॅटबॉट्सचे नियमन डेटा गोपनीयतेसारख्या तांत्रिक चिंतांपेक्षा (जरी त्या अस्तित्वात असू शकतात) राजकीय नियंत्रण टिकवून ठेवणे, विशिष्ट सांस्कृतिक आणि धार्मिक मूल्ये जपणे आणि लोकसंख्येला राज्याद्वारे अवांछित मानल्या जाणाऱ्या बाह्य प्रभावांपासून दूर ठेवण्याबद्दल अधिक आहे. प्रवेश केवळ त्या AI प्रणालींसाठीच परवानगी दिला जाण्याची शक्यता आहे ज्यांचे निरीक्षण आणि नियंत्रण केले जाऊ शकते, जेणेकरून ते स्थापित व्यवस्थेला आव्हान देणार नाहीत.
उत्तर कोरियाचा संपूर्ण अडथळा: माहिती अलगाववाद AI पर्यंत विस्तारित
उत्तर कोरिया माहिती आणि तंत्रज्ञानावरील राज्य नियंत्रणाचे कदाचित सर्वात टोकाचे उदाहरण आहे आणि कृत्रिम बुद्धिमत्तेवरील, विशेषतः जागतिक स्तरावर प्रवेशयोग्य चॅटबॉट्सवरील त्याची भूमिका ही वास्तविकता दर्शवते. देश माहितीच्या नाकेबंदीखाली कार्यरत आहे, जिथे बहुसंख्य लोकसंख्येसाठी इंटरनेट प्रवेश अत्यंत मर्यादित आहे. प्रवेश सामान्यतः एका लहान, अत्यंत तपासलेल्या उच्चभ्रू वर्गापुरता मर्यादित असतो आणि तरीही, तो अनेकदा राज्य-नियंत्रित इंट्रानेट (Kwangmyong) पुरताच मर्यादित असतो.
या संदर्भात, परदेशी AI चॅटबॉट्सवर बंदी घालण्याची संकल्पना जवळजवळ निरर्थक आहे, कारण त्यांचा वापर करण्यासाठी आवश्यक असलेली मूलभूत पायाभूत सुविधा आणि प्रवेश सामान्य नागरिकांसाठी अस्तित्वात नाही. तथापि, अंतर्निहित तत्त्व स्पष्ट आणि निरपेक्ष आहे:
- संपूर्ण माहिती नियंत्रण: उत्तर कोरियन राजवटीचे प्राथमिक उद्दिष्ट म्हणजे नागरिकांना मिळणाऱ्या माहितीवर संपूर्ण नियंत्रण ठेवणे. कोणतीही तंत्रज्ञान जी संभाव्यतः बाहेरील माहिती, दृष्टिकोन किंवा संवाद चॅनेल आणू शकते, ती राजवटीच्या स्थिरतेसाठी आणि तिच्या व्यक्तिपूजेसाठी अस्तित्वात्मक धोका म्हणून पाहिली जाते. जागतिक डेटावर प्रशिक्षित आणि फिल्टर न केलेली माहिती प्रदान करण्यास सक्षम असलेले परदेशी AI चॅटबॉट्स या नियंत्रणाच्या अगदी विरुद्ध आहेत.
- बाहेरील जगाच्या संपर्कात येण्यापासून प्रतिबंध: सरकार आपल्या लोकांना उत्तर कोरियाबाहेरील जगाबद्दल, विशेषतः दक्षिण कोरिया आणि पाश्चिमात्य देशांमधील जीवनाबद्दल जाणून घेण्यापासून सक्रियपणे प्रतिबंधित करते. AI चॅटबॉट्स सहजपणे अशी माहिती देऊ शकतात, ज्यामुळे संभाव्यतः राज्य प्रचाराला कमजोर केले जाऊ शकते आणि असंतोष वाढू शकतो.
- वैचारिक शुद्धता राखणे: राजवट आपल्या जुचे (Juche) विचारसरणीचे कठोर पालन लागू करते. विविध जागतिक दृष्टिकोनांनी युक्त परदेशी AI, वैचारिक प्रदूषणासाठी एक वाहक म्हणून पाहिले जाते जे राज्याच्या कथनाला आणि अधिकाराला आव्हान देऊ शकते.
- सुरक्षा चिंता: माहिती नियंत्रणापलीकडे, परदेशी AI हेरगिरीसाठी किंवा राजवटीला धोका निर्माण करू शकणाऱ्या संवादासाठी वापरले जाण्याबद्दल गंभीर सुरक्षा चिंता देखील असतील.
इतर देशांप्रमाणे जे AI चे नियमन, निर्बंध किंवा निवडकपणे बंदी घालू शकतात, उत्तर कोरियाचा दृष्टिकोन त्याच्या अत्यंत अलगाववादाच्या व्यापक धोरणाचा भाग म्हणून जवळजवळ संपूर्ण बहिष्काराचा आहे. राज्य अंतर्गत विशिष्ट, नियंत्रित अनुप्रयोगांसाठी (उदा. लष्करी, पाळत ठेवणे) AI चा शोध घेत असले तरी, परदेशी संवादात्मक AI प्लॅटफॉर्म्सवर व्यापक प्रवेशाची परवानगी देण्याची कल्पना राजवटीच्या स्वरूपाशी मूलभूतपणे विसंगत आहे. हे जागतिक स्पेक्ट्रमचे सर्वात कठोर टोक दर्शवते, जिथे अनियंत्रित माहितीचे कथित धोके अशा तंत्रज्ञानाच्या खुल्या प्रवेशाच्या कोणत्याही संभाव्य फायद्यांपेक्षा खूप जास्त आहेत.
उलगडणारी कथा: नियमन, नवोपक्रम आणि AI सीमा
इटली, चीन, रशिया, इराण आणि उत्तर कोरिया यांसारख्या राष्ट्रांनी घेतलेल्या विविध कृती दर्शवतात की संवादात्मक AI ला जागतिक प्रतिसाद एकसमान नाही. प्रत्येक देशाचा दृष्टिकोन त्याच्या राजकीय प्रणाली, सांस्कृतिक मूल्ये, आर्थिक महत्त्वाकांक्षा आणि कथित राष्ट्रीय सुरक्षा धोक्यांचे एक अद्वितीय प्रतिबिंब आहे. इटलीची तात्पुरती बंदी, EU डेटा गोपनीयता कायद्यावर आधारित, लोकशाही समाजांमध्ये स्थापित कायदेशीर चौकटींद्वारे वापरल्या जाणाऱ्या नियामक शक्तीवर प्रकाश टाकते. चीन आणि रशिया एक मॉडेल दर्शवतात जिथे तांत्रिक प्रगती जोरदारपणे केली जाते, परंतु कठोरपणे राज्य-नियंत्रित मापदंडांमध्ये, स्थिरता, माहिती नियंत्रण आणि परदेशी स्पर्धेपासून संरक्षित असलेल्या देशांतर्गत उद्योगांच्या संवर्धनाला प्राधान्य दिले जाते. इराणचे लक्ष वैचारिक जतन आणि कथित बाह्य हस्तक्षेपापासून संरक्षण करण्यावर तीव्रपणे केंद्रित आहे. उत्तर कोरिया अत्यंत टोकाचे प्रतिनिधित्व करतो, जिथे माहिती अलगाववाद अशा तंत्रज्ञानाविरुद्ध जवळजवळ संपूर्ण नाकेबंदी ठरवतो.
हे वेगवेगळे प्रतिसाद AI क्रांतीच्या केंद्रस्थानी असलेल्या एका मूलभूत तणावाला अधोरेखित करतात: नवोपक्रमाला चालना देणे आणि संभाव्य धोके कमी करणे यामधील नाजूक आणि अनेकदा विवादास्पद संतुलन. जगभरातील सरकारे गंभीर प्रश्नांशी झगडत आहेत:
- AI चे आर्थिक आणि सामाजिक फायदे जबाबदारीने कसे मिळवता येतील?
- मोठ्या प्रमाणात डेटा संकलनाच्या युगात वैयक्तिक गोपनीयतेचे संरक्षण करण्यासाठी कोणती सुरक्षा उपाययोजना आवश्यक आहेत?
- AI-व्युत्पन्न चुकीची माहिती आणि अपप्रचाराचा प्रसार मुक्त अभिव्यक्तीला दाबल्याशिवाय कसा रोखता येईल?
- राष्ट्रीय सुरक्षेत AI ची भूमिका काय असावी आणि संबंधित धोके कसे व्यवस्थापित केले जाऊ शकतात?
- कठोर नियम नकळतपणे त्याच नवोपक्रमाला दडपतील का ज्याचे मार्गदर्शन करण्याचा त्यांचा हेतू आहे, ज्यामुळे संभाव्यतः राष्ट्रे एका महत्त्वपूर्ण तांत्रिक शर्यतीत मागे पडतील?
AI मॉडेल्स अधिकाधिक अत्याधुनिक होत जातील आणि जीवनाच्या विविध पैलूंमध्ये एकत्रित होतील, तसतसे हे प्रश्न अधिक तातडीचे बनतील. आपण कृत्रिम बुद्धिमत्तेसाठी जागतिक नियम आणि राष्ट्रीय नियम विकसित करण्याच्या दीर्घ आणि गुंतागुंतीच्या प्रक्रियेच्या सुरुवातीच्या टप्प्यांचे साक्षीदार होण्याची शक्यता आहे. बंदी आणि निर्बंधांचे सध्याचे जाळे कदाचित अधिक सूक्ष्म नियामक चौकटींमध्ये विकसित होऊ शकते, ज्यात कदाचित जोखीम-आधारित मूल्यांकन, अनिवार्य पारदर्शकता आवश्यकता किंवा आंतरराष्ट्रीय सहकार्य प्रयत्नांचा समावेश असेल. याउलट, भू-राजकीय विखंडन आणि भिन्न राष्ट्रीय प्राधान्यक्रम वाढत्या प्रमाणात विखंडित जागतिक AI परिदृश्याकडे नेऊ शकतात. पुढील मार्ग अनिश्चित आहे, परंतु संवादात्मक AI बाबत आज सरकारांनी घेतलेले निर्णय मानवतेचे आणि तिच्या वाढत्या बुद्धिमान निर्मितीमधील भविष्यातील संबंधांसाठी पाया घालत आहेत. AI प्रशासनाभोवतीचा संवाद केवळ तांत्रिक किंवा कायदेशीर वादविवाद नाही; तो शक्ती, नियंत्रण, सामाजिक मूल्ये आणि डिजिटल युगातील माहितीच्या भविष्याबद्दलचा संवाद आहे.