AI-निर्मित सामग्रीवर सरकारची भूमिका
अलीकडे, सोशल मीडिया प्लॅटफॉर्म X वरील वापरकर्ते, ग्रॉक (Grok) या त्यांच्या निवासी AI साधनाला भारतीय राजकारण्यांबद्दल विविध प्रश्न विचारत आहेत. या AI प्लॅटफॉर्मने तयार केलेल्या प्रतिसादांमुळे, काहीवेळा, वाद निर्माण झाले आहेत, ज्यामुळे त्याने तयार केलेल्या सामग्रीच्या जबाबदारीबद्दल प्रश्न उपस्थित झाले आहेत.
या प्रकरणावर बोलताना एका सरकारी सूत्राने सांगितले, “सुरुवातीला, असे दिसते की होय. हे माझे वैयक्तिक मत आहे, परंतु त्याची कायदेशीर तपासणी करणे आवश्यक आहे.” ग्रॉकने तयार केलेल्या सामग्रीसाठी X ला जबाबदार धरले जाऊ शकते का, या प्रश्नाला थेट उत्तर देताना हे विधान करण्यात आले. सूत्राने पुढे स्पष्ट केले की इलेक्ट्रॉनिक्स आणि माहिती तंत्रज्ञान मंत्रालय सोशल मीडिया प्लॅटफॉर्मशी सक्रियपणे चर्चा करत आहे. या चर्चांचा उद्देश ग्रॉकच्या कार्यपद्धतीबद्दल सर्वसमावेशक माहिती मिळवणे आणि त्याच्या ऑपरेशनल पॅरामीटर्सचे मूल्यांकन करणे हा आहे.
AI द्वारे तयार केलेल्या संभाव्य समस्याप्रधान सामग्रीवर भारत सरकारला लक्ष देण्याची ही पहिलीच वेळ नाही. मागच्या वर्षी, Google च्या Gemini ने पंतप्रधान नरेंद्र मोदी यांच्या विरोधात काही वादग्रस्त टिप्पणी केल्यानंतर, AI बाबत त्वरित कारवाई आणि मार्गदर्शक तत्त्वे जारी करण्यात आली. सरकारने त्यावेळी घेतलेल्या सक्रिय भूमिकेमुळे, AI-निर्मित सामग्रीचे नियमन करण्याची, विशेषत: जेव्हा ती संवेदनशील राजकीय विषयांवर येते, तेव्हाची बांधिलकी अधोरेखित झाली. सूत्राने जोर दिला की सोशल मीडिया सामग्रीवर देखरेख ठेवण्यासाठी मार्गदर्शक तत्त्वे निश्चितपणे लागू आहेत आणि कंपन्यांनी त्यांचे काटेकोरपणे पालन करणे अपेक्षित आहे.
X चे कायदेशीर आव्हान आणि IT कायद्याचे कलम 79(3)
AI-निर्मित सामग्रीच्या दायित्वाबद्दलची सध्याची चर्चा X ने भारत सरकारविरुद्ध केलेल्या कायदेशीर आव्हानामुळे अधिक गुंतागुंतीची झाली आहे. एलोन मस्कच्या मालकीच्या प्लॅटफॉर्मने कर्नाटक उच्च न्यायालयात एक खटला दाखल केला आहे, ज्यामध्ये सध्याच्या सामग्री नियमांच्या বৈধतेवर आणि मनमानी कारभारावर प्रश्नचिन्ह उपस्थित केले आहे. X च्या युक्तिवादाच्या केंद्रस्थानी माहिती तंत्रज्ञान (IT) कायद्याच्या कलम 79(3)(b) चा सरकारचा अर्थ आहे.
X चा दावा आहे की हा अर्थ सर्वोच्च न्यायालयाच्या निर्णयांचे उल्लंघन करतो आणि ऑनलाइन अभिव्यक्ती स्वातंत्र्याच्या तत्त्वांना कमी लेखतो. कलम 79(3)(b) तेव्हा संबंधित ठरते जेव्हा एखादे मध्यस्थ, जसे की सोशल मीडिया प्लॅटफॉर्म, अधिकृत सरकारी संस्थांनी निर्देशित केल्यानुसार आक्षेपार्ह सामग्री काढण्यात अयशस्वी ठरते.
या प्रकरणाचा मुख्य मुद्दा गैर-पालनाच्या संभाव्य परिणामांमध्ये आहे. जर एखाद्या सोशल मीडिया प्लॅटफॉर्मने आक्षेपार्ह मानली जाणारी सामग्री काढली नाही, तर ते त्या वापरकर्त्याने तयार केलेल्या सामग्रीचे दायित्व किंवा मालकी स्वीकारते. यामुळे, संभाव्य खटल्याचा दरवाजा उघडतो. तथापि, प्लॅटफॉर्मला अशा खटल्याला न्यायालयात आव्हान देण्याचा अधिकार आहे. हे सामग्री नियंत्रणावरील विवाद सोडवण्यात न्यायव्यवस्थेची महत्त्वपूर्ण भूमिका अधोरेखित करते. शेवटी, सोशल मीडिया प्लॅटफॉर्मने उपस्थित केलेल्या वादांवर न्यायालयांचा अंतिम निर्णय असेल.
कलम 79(3)(b) चा सरकारकडून कथित वापर
X च्या खटल्यात असा आरोप आहे की सरकार कलम 79(3)(b) चा वापर समांतर सामग्री-अवरोधित करण्याची यंत्रणा स्थापित करण्यासाठी करत आहे. X च्या मते, ही यंत्रणा IT कायद्याच्या कलम 69A मध्ये नमूद केलेल्या संरचित कायदेशीर प्रक्रियेला बगल देते. कलम 69A सामग्री अवरोधित करण्यासाठी कायदेशीररित्या परिभाषित मार्ग प्रदान करते, ज्यामध्ये योग्य न्यायिक प्रक्रियेचा समावेश असतो.
X असा युक्तिवाद करतो की सरकारचा दृष्टिकोन 2015 मध्ये श्रेया सिंघल प्रकरणात सर्वोच्च न्यायालयाच्या निर्णयाच्या थेट विरोधात आहे. या महत्त्वपूर्ण प्रकरणात असे स्थापित केले गेले आहे की सामग्री अवरोधित करणे केवळ कायदेशीर न्यायिक प्रक्रियेद्वारे किंवा कलम 69A अंतर्गत कायदेशीररित्या विहित मार्गानेच होऊ शकते.
सामग्री काढण्याच्या विनंत्यांचे पालन न करण्याचे परिणाम महत्त्वपूर्ण आहेत. जर एखादे प्लॅटफॉर्म 36 तासांच्या आत पालन करण्यात अयशस्वी झाले, तर ते IT कायद्याच्या कलम 79(1) द्वारे प्रदान केलेले “सुरक्षित आश्रयस्थान” संरक्षण गमावण्याचा धोका पत्करते. हे संरक्षण सोशल मीडिया प्लॅटफॉर्मला वापरकर्त्यांनी पोस्ट केलेल्या आक्षेपार्ह सामग्रीच्या दायित्वापासून वाचवते. या संरक्षणाचा ऱ्हास झाल्यास प्लॅटफॉर्मला भारतीय दंड संहिता (IPC) সহ विविध कायद्यांनुसार जबाबदार धरले जाऊ शकते.
IT कायद्याचे कलम 79 समजून घेणे
IT कायद्याचे कलम 79 सोशल मीडिया प्लॅटफॉर्मचे दायित्व आणि संरक्षण परिभाषित करण्यात महत्त्वपूर्ण भूमिका बजावते. कलम 79(1) विशेषतः या प्लॅटफॉर्मला संरक्षण देते, त्यांना वापरकर्त्याने तयार केलेल्या आक्षेपार्ह सामग्रीसाठी दायित्वापासून वाचवते. हे कलम भारतातील सोशल मीडिया प्लॅटफॉर्मच्या ऑपरेशनल स्वातंत्र्यासाठी मूलभूत आहे.
तथापि, हे संरक्षण पूर्ण नाही. कलम 79(2) मध्ये मध्यस्थांनी या संरक्षणासाठी पात्र होण्यासाठी पूर्ण करावयाच्या अटींची रूपरेषा दिली आहे. या अटींमध्ये सामान्यत: योग्य परिश्रम आवश्यकता आणि सामग्री नियंत्रण धोरणे समाविष्ट असतात.
कलम 79(3), या कलमाचा सर्वात वादग्रस्त भाग, ज्या परिस्थितीत सोशल मीडिया प्लॅटफॉर्मला दिलेले संरक्षण लागू होणार नाही, त्याचे तपशील देतो. हे सामान्यतः तेव्हा घडते जेव्हा एखादे प्लॅटफॉर्म सामग्री काढण्यासाठी कायदेशीर आदेशाचे पालन करण्यात अयशस्वी होते. कलम 79(3) चा अर्थ आणि अंमलबजावणी X आणि भारत सरकार यांच्यातील चालू असलेल्या कायदेशीर लढाईच्या केंद्रस्थानी आहे.
चर्चा अधिक सखोल करणे: AI-निर्मित सामग्री आणि प्लॅटफॉर्म जबाबदारीची गुंतागुंत
ग्रॉक आणि X ची परिस्थिती सामग्री नियंत्रणाच्या क्षेत्रात एक अनोखे आव्हान सादर करते. पारंपारिक वापरकर्ता-निर्मित सामग्रीच्या विपरीत, जिथे व्यक्ती त्यांच्या पोस्टसाठी थेट जबाबदार असतात, AI-निर्मित सामग्री गुंतागुंतीचा एक स्तर सादर करते. प्रश्न असा आहे की: जेव्हा एखादा AI वादग्रस्त किंवा आक्षेपार्ह सामग्री तयार करतो तेव्हा कोण जबाबदार असते?
या समस्येवर अनेक दृष्टिकोन अस्तित्वात आहेत. काहीजण असा युक्तिवाद करतात की AI होस्ट करणाऱ्या प्लॅटफॉर्मने पूर्ण जबाबदारी घेतली पाहिजे, कारण ते AI ऑपरेट करण्यासाठी तंत्रज्ञान आणि पायाभूत सुविधा प्रदान करते. इतरांचा असा युक्तिवाद आहे की AI च्या विकासकांना जबाबदार धरले पाहिजे, कारण ते AI च्या वर्तनावर नियंत्रण ठेवणारे अल्गोरिदम तयार करतात. तिसरा दृष्टिकोन सामायिक जबाबदारी मॉडेल सुचवतो, जिथे प्लॅटफॉर्म आणि डेव्हलपर दोघेही जबाबदारीचा भार सामायिक करतात.
सरकारी सूत्राने सूचित केल्यानुसार, भारत सरकारचा दृष्टिकोन, कमीतकमी सुरुवातीला तरी प्लॅटफॉर्मला जबाबदार धरण्याकडे झुकतो. हा दृष्टिकोन वापरकर्ता-निर्मित सामग्रीसाठी विद्यमान फ्रेमवर्कशी जुळतो, जिथे प्लॅटफॉर्मने आक्षेपार्ह सामग्री नियंत्रित करणे आणि काढणे अपेक्षित आहे. तथापि, सरकार कायदेशीर छाननीची गरज देखील मान्य करते, AI-निर्मित सामग्रीमुळे निर्माण झालेली नवीन आव्हाने ओळखते.
अभिव्यक्ती स्वातंत्र्य आणि ऑनलाइन प्लॅटफॉर्मसाठी व्यापक परिणाम
X च्या कायदेशीर आव्हानाचा निकाल आणि AI-निर्मित सामग्रीबद्दलची चालू असलेली चर्चा, भारतामध्ये अभिव्यक्ती स्वातंत्र्य आणि ऑनलाइन प्लॅटफॉर्मच्या कार्यावर दूरगामी परिणाम करेल. जर कलम 79(3)(b) चा सरकारचा अर्थ कायम ठेवला गेला, तर प्लॅटफॉर्मवर सक्रियपणे सामग्रीचे परीक्षण आणि सेन्सॉर करण्यासाठी दबाव वाढू शकतो, ज्यामुळे संभाव्यतः अभिव्यक्ती स्वातंत्र्यावर गदा येईल.
दुसरीकडे, जर X चे आव्हान यशस्वी झाले, तर ते सामग्री नियमनासाठी अधिक सूक्ष्म दृष्टिकोन आणू शकते, जे हानिकारक सामग्रीला संबोधित करण्याची गरज आणि अभिव्यक्ती स्वातंत्र्याच्या अधिकारांचे संरक्षण यांच्यात संतुलन राखेल. या संतुलनाची आखणी करण्यात न्यायालये महत्त्वाची भूमिका बजावतील.
हे प्रकरण AI-निर्मित सामग्रीचे भविष्य आणि त्याचे नियमन याबद्दल महत्त्वाचे प्रश्न देखील उपस्थित करते. जसजसे AI तंत्रज्ञान विकसित होत जाईल आणि अधिक अत्याधुनिक होत जाईल, तसतसे स्पष्ट मार्गदर्शक तत्त्वे आणि कायदेशीर फ्रेमवर्कची आवश्यकता अधिकाधिक निकडीची होत जाईल. या क्षेत्रातील भारत सरकारची कृती, अशाच आव्हानांशी झुंजणाऱ्या इतर देशांसाठी एक उदाहरण म्हणून काम करू शकते.
सामग्री नियंत्रणासाठी पर्यायी दृष्टिकोन शोधणे
AI-निर्मित सामग्रीचे नियमन करण्याच्या गुंतागुंतीचा विचार करता, सामग्री नियंत्रणासाठी पर्यायी दृष्टिकोन शोधणे आवश्यक आहे. एक संभाव्य मार्ग म्हणजे AI विकास आणि उपयोजनासाठी उद्योग-व्यापी मानके आणि सर्वोत्तम पद्धतींचा विकास. यामध्ये AI निर्मात्यांसाठी नैतिक मार्गदर्शक तत्त्वे स्थापित करणे, AI अल्गोरिदममध्ये पारदर्शकता वाढवणे आणि AI-निर्मित सामग्रीचे परीक्षण करण्यासाठी यंत्रणा लागू करणे समाविष्ट असू शकते.
दुसरा दृष्टिकोन वापरकर्त्यांना AI शी त्यांच्या संवादांवर अधिक चांगले नियंत्रण ठेवण्यासाठी सक्षम करण्यावर लक्ष केंद्रित करू शकतो. यामध्ये वापरकर्त्यांना AI-निर्मित सामग्री फिल्टर किंवा फ्लॅग करण्यासाठी साधने प्रदान करणे, त्यांना ते वापरत असलेल्या माहितीवर अधिक नियंत्रण देणे समाविष्ट असू शकते.
शेवटी, एक बहुआयामी दृष्टिकोन जो तांत्रिक उपाय, कायदेशीर फ्रेमवर्क आणि वापरकर्ता सशक्तीकरण यांना एकत्र करतो, तो AI-निर्मित सामग्रीमुळे निर्माण झालेल्या आव्हानांना सामोरे जाण्याचा सर्वात प्रभावी मार्ग असू शकतो. या दृष्टिकोनासाठी सरकार, तंत्रज्ञान कंपन्या, नागरी समाज संस्था आणि वैयक्तिक वापरकर्ते यांच्यात सहकार्य आवश्यक असेल.
चालू असलेला संवाद आणि जुळवून घेण्याचे महत्त्व
AI-निर्मित सामग्रीच्या सभोवतालची कायदेशीर आणि नैतिक परिस्थिती सतत बदलत आहे. त्यामुळे सर्व हितधारकांमध्ये सतत संवाद आवश्यक आहे. या संवादात AI तंत्रज्ञानाचे संभाव्य फायदे आणि धोके, योग्य नियामक फ्रेमवर्कचा विकास आणि जबाबदार AI विकास आणि उपयोजनाला प्रोत्साहन देणे याबद्दल खुल्या चर्चांचा समावेश असावा.
शिवाय, नियमनासाठी एक लवचिक आणि जुळवून घेणारा दृष्टिकोन स्वीकारणे महत्त्वाचे आहे. जसजसे AI तंत्रज्ञान प्रगती करत आहे, तसतसे बदलत्या परिस्थितीशी जुळवून घेण्यासाठी नियमांचे पुनरावलोकन आणि अद्यतन करणे आवश्यक आहे. यासाठी विविध दृष्टिकोन वापरण्याची, यश आणि अपयशातून शिकण्याची आणि नियामक फ्रेमवर्कमध्ये सतत सुधारणा करण्याची तयारी आवश्यक आहे. ध्येय हे असले पाहिजे की एक अशी प्रणाली तयार करणे जी मूलभूत अधिकार आणि मूल्यांचे संरक्षण करताना नावीन्यपूर्णतेला प्रोत्साहन देईल. यासाठी कृत्रिम बुद्धिमत्तेच्या सतत विकसित होणाऱ्या जगात सादर केलेल्या आव्हाने आणि संधींसाठी एक गतिशील आणि प्रतिसाद देणारा दृष्टिकोन आवश्यक आहे.