ग्रॉक जनित सामग्री के लिए X उत्तरदायी हो सकता है: सरकारी सूत्र

AI-जनित सामग्री पर सरकार का रुख

हाल ही में, सोशल मीडिया प्लेटफॉर्म X पर उपयोगकर्ता इसके रेजिडेंट AI टूल, Grok से भारतीय राजनेताओं के बारे में विभिन्न पूछताछ कर रहे हैं। इस AI प्लेटफॉर्म द्वारा उत्पन्न प्रतिक्रियाओं को, कुछ अवसरों पर, अरुचिकर माना गया है, जिससे इसके द्वारा उत्पादित सामग्री के लिए जिम्मेदारी के बारे में सवाल उठ रहे हैं।

एक सरकारी सूत्र ने इस मामले पर बोलते हुए कहा, “प्रथम दृष्टया, ऐसा लगता है कि हाँ। यह मेरा व्यक्तिगत विचार है, लेकिन इसकी कानूनी जांच होनी चाहिए।” यह बयान सीधे इस सवाल के जवाब में था कि क्या X को Grok द्वारा उत्पन्न सामग्री के लिए जवाबदेह ठहराया जा सकता है। सूत्र ने आगे स्पष्ट किया कि इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय सोशल मीडिया प्लेटफॉर्म के साथ सक्रिय रूप से चर्चा में लगा हुआ है। इन चर्चाओं का उद्देश्य Grok के कामकाज की व्यापक समझ हासिल करना और इसके परिचालन मापदंडों का आकलन करना है।

यह पहला उदाहरण नहीं है जहां भारत सरकार को AI द्वारा उत्पन्न संभावित समस्याग्रस्त सामग्री को संबोधित करना पड़ा है। पिछले साल, Google के Gemini द्वारा प्रधान मंत्री नरेंद्र मोदी के खिलाफ कुछ विवादास्पद टिप्पणियां करने के बाद AI के संबंध में तत्काल कार्रवाई और दिशानिर्देश जारी किए गए थे। सरकार के सक्रिय दृष्टिकोण ने AI-जनित सामग्री को विनियमित करने की प्रतिबद्धता को रेखांकित किया, खासकर जब यह संवेदनशील राजनीतिक विषयों को छूती है। सूत्र ने जोर देकर कहा कि सोशल मीडिया सामग्री की निगरानी के लिए दिशानिर्देश दृढ़ता से लागू हैं और कंपनियों से अपेक्षा की जाती है कि वे उनका सख्ती से पालन करें।

X की कानूनी चुनौती और IT अधिनियम की धारा 79(3)

AI-जनित सामग्री दायित्व के बारे में चल रही चर्चा X द्वारा भारत सरकार के खिलाफ कानूनी चुनौती से और जटिल हो गई है। एलोन मस्क के स्वामित्व वाले प्लेटफॉर्म ने कर्नाटक उच्च न्यायालय में एक मुकदमा दायर किया है, जिसमें वर्तमान सामग्री विनियमों की वैधता और मनमानी को चुनौती दी गई है। X के तर्क के केंद्र में सूचना प्रौद्योगिकी (IT) अधिनियम की धारा 79(3)(b) की सरकार की व्याख्या है।

X का तर्क है कि यह व्याख्या सर्वोच्च न्यायालय के फैसलों का उल्लंघन करती है और ऑनलाइन अभिव्यक्ति की स्वतंत्रता के सिद्धांतों को कमजोर करती है। धारा 79(3)(b) तब प्रासंगिक हो जाती है जब एक मध्यस्थ, जैसे कि सोशल मीडिया प्लेटफॉर्म, अधिकृत सरकारी निकायों द्वारा निर्देशित आपत्तिजनक सामग्री को हटाने में विफल रहता है।

मामले का मूल गैर-अनुपालन के संभावित परिणामों में निहित है। यदि कोई सोशल मीडिया प्लेटफॉर्म आपत्तिजनक मानी जाने वाली सामग्री को नहीं हटाने का विकल्प चुनता है, तो यह उस उपयोगकर्ता-जनित सामग्री का दायित्व या स्वामित्व स्वीकार करता है। यह, बदले में, संभावित अभियोजन के लिए दरवाजा खोलता है। हालांकि, प्लेटफॉर्म को अदालत में ऐसे अभियोजन को चुनौती देने का अधिकार है। यह सामग्री मॉडरेशन पर विवादों को हल करने में न्यायपालिका की महत्वपूर्ण भूमिका पर प्रकाश डालता है। अंततः, सोशल मीडिया प्लेटफॉर्म द्वारा उठाए गए विवादों पर अदालतों का अंतिम फैसला होगा।

धारा 79(3)(b) का सरकार द्वारा कथित उपयोग

X के मुकदमे में आरोप लगाया गया है कि सरकार IT अधिनियम की धारा 69A में उल्लिखित संरचित कानूनी प्रक्रिया को दरकिनार करते हुए एक समानांतर सामग्री-अवरोधन तंत्र स्थापित करने के लिए धारा 79(3)(b) का लाभ उठा रही है। धारा 69A सामग्री अवरोधन के लिए कानूनी रूप से परिभाषित मार्ग प्रदान करती है, जिसमें एक उचित न्यायिक प्रक्रिया शामिल है।

X का तर्क है कि सरकार का दृष्टिकोण श्रेया सिंघल मामले में 2015 के सर्वोच्च न्यायालय के फैसले का सीधे तौर पर खंडन करता है। इस ऐतिहासिक मामले ने स्थापित किया कि सामग्री अवरोधन केवल एक वैध न्यायिक प्रक्रिया या धारा 69A के तहत कानूनी रूप से निर्धारित मार्ग के माध्यम से ही हो सकता है।

सामग्री हटाने के अनुरोधों का पालन न करने के निहितार्थ महत्वपूर्ण हैं। यदि कोई प्लेटफ़ॉर्म 36 घंटे की विंडो के भीतर अनुपालन करने में विफल रहता है, तो वह IT अधिनियम की धारा 79(1) द्वारा प्रदान की गई “सुरक्षित बंदरगाह” सुरक्षा को खोने का जोखिम उठाता है। यह सुरक्षा सोशल मीडिया प्लेटफॉर्म को उपयोगकर्ताओं द्वारा पोस्ट की गई आपत्तिजनक सामग्री के लिए दायित्व से बचाती है। इस सुरक्षा के नुकसान से प्लेटफ़ॉर्म भारतीय दंड संहिता (IPC) सहित विभिन्न कानूनों के तहत जवाबदेही के लिए खुल सकता है।

IT अधिनियम की धारा 79 को समझना

IT अधिनियम की धारा 79 सोशल मीडिया प्लेटफॉर्म के दायित्वों और सुरक्षा को परिभाषित करने में महत्वपूर्ण भूमिका निभाती है। धारा 79(1) विशेष रूप से इन प्लेटफार्मों को सुरक्षा प्रदान करती है, उन्हें उपयोगकर्ता-जनित सामग्री के लिए दायित्व से बचाती है जिसे आपत्तिजनक माना जाता है। यह प्रावधान भारत में सोशल मीडिया प्लेटफॉर्म की परिचालन स्वतंत्रता के लिए मूलभूत है।

हालांकि, यह सुरक्षा पूर्ण नहीं है। धारा 79(2) उन शर्तों को रेखांकित करती है जिन्हें मध्यस्थों को इस सुरक्षा के लिए अर्हता प्राप्त करने के लिए पूरा करना होगा। इन शर्तों में आम तौर पर उचित परिश्रम आवश्यकताएं और सामग्री मॉडरेशन नीतियां शामिल होती हैं।

धारा 79(3), इस खंड का सबसे विवादास्पद हिस्सा, उन परिस्थितियों का विवरण देता है जिनके तहत सोशल मीडिया प्लेटफॉर्म को दी गई सुरक्षा लागू नहीं होगी। यह आमतौर पर तब होता है जब कोई प्लेटफ़ॉर्म सामग्री को हटाने के वैध आदेश का पालन करने में विफल रहता है। धारा 79(3) की व्याख्या और अनुप्रयोग X और भारत सरकार के बीच चल रही कानूनी लड़ाई के केंद्र में हैं।

गहन चर्चा: AI-जनित सामग्री और प्लेटफ़ॉर्म जिम्मेदारी की बारीकियां

Grok और X के साथ स्थिति सामग्री मॉडरेशन के क्षेत्र में एक अनूठी चुनौती प्रस्तुत करती है। पारंपरिक उपयोगकर्ता-जनित सामग्री के विपरीत, जहां व्यक्ति सीधे अपने पोस्ट के लिए जिम्मेदार होते हैं, AI-जनित सामग्री जटिलता की एक परत पेश करती है। सवाल यह बन जाता है: जब कोई AI विवादास्पद या आपत्तिजनक सामग्री का उत्पादन करता है तो कौन जवाबदेह होता है?

इस मुद्दे पर कई दृष्टिकोण मौजूद हैं। कुछ का तर्क है कि AI को होस्ट करने वाले प्लेटफ़ॉर्म को पूरी ज़िम्मेदारी उठानी चाहिए, क्योंकि यह AI को संचालित करने के लिए तकनीक और बुनियादी ढांचा प्रदान करता है। दूसरों का तर्क है कि AI के डेवलपर्स को जवाबदेह ठहराया जाना चाहिए, क्योंकि वे वही हैं जिन्होंने AI के व्यवहार को नियंत्रित करने वाले एल्गोरिदम बनाए हैं। एक तीसरा दृष्टिकोण एक साझा जिम्मेदारी मॉडल का सुझाव देता है, जहां प्लेटफ़ॉर्म और डेवलपर्स दोनों जवाबदेही का बोझ साझा करते हैं।

भारत सरकार का रुख, जैसा कि सूत्र द्वारा इंगित किया गया है, कम से कम शुरू में, प्लेटफ़ॉर्म को जिम्मेदार ठहराने की ओर झुकता है। यह दृष्टिकोण उपयोगकर्ता-जनित सामग्री के लिए मौजूदा ढांचे के साथ संरेखित होता है, जहां प्लेटफार्मों से आपत्तिजनक सामग्री को मॉडरेट करने और हटाने की उम्मीद की जाती है। हालांकि, सरकार AI-जनित सामग्री द्वारा उत्पन्न नई चुनौतियों को स्वीकार करते हुए कानूनी जांच की आवश्यकता को भी स्वीकार करती है।

मुक्त भाषण और ऑनलाइन प्लेटफ़ॉर्म के लिए व्यापक निहितार्थ

X की कानूनी चुनौती और AI-जनित सामग्री के बारे में चल रही बहस के परिणाम भारत में मुक्त भाषण और ऑनलाइन प्लेटफ़ॉर्म के संचालन के लिए दूरगामी प्रभाव डालेंगे। यदि धारा 79(3)(b) की सरकार की व्याख्या को बरकरार रखा जाता है, तो यह प्लेटफार्मों पर सक्रिय रूप से सामग्री की निगरानी और सेंसर करने के लिए दबाव बढ़ा सकता है, संभावित रूप से मुक्त अभिव्यक्ति को ठंडा कर सकता है।

दूसरी ओर, यदि X की चुनौती सफल होती है, तो यह सामग्री विनियमन के लिए एक अधिक सूक्ष्म दृष्टिकोण का नेतृत्व कर सकता है, जो हानिकारक सामग्री को संबोधित करने की आवश्यकता को मुक्त भाषण अधिकारों की सुरक्षा के साथ संतुलित करता है। अदालतें इस संतुलन को आकार देने में महत्वपूर्ण भूमिका निभाएंगी।

यह मामला AI-जनित सामग्री के भविष्य और इसके विनियमन के बारे में भी महत्वपूर्ण प्रश्न उठाता है। जैसे-जैसे AI तकनीक विकसित होती रहेगी और अधिक परिष्कृत होती जाएगी, स्पष्ट दिशानिर्देशों और कानूनी ढांचे की आवश्यकता तेजी से जरूरी होती जाएगी। इस क्षेत्र में भारत सरकार की कार्रवाइयां समान चुनौतियों से जूझ रहे अन्य देशों के लिए एक मिसाल कायम कर सकती हैं।

सामग्री मॉडरेशन के लिए वैकल्पिक दृष्टिकोणों की खोज

AI-जनित सामग्री को विनियमित करने की जटिलताओं को देखते हुए, सामग्री मॉडरेशन के लिए वैकल्पिक दृष्टिकोणों की खोज करना महत्वपूर्ण है। एक संभावित रास्ता AI विकास और परिनियोजन के लिए उद्योग-व्यापी मानकों और सर्वोत्तम प्रथाओं का विकास है। इसमें AI रचनाकारों के लिए नैतिक दिशानिर्देश स्थापित करना, AI एल्गोरिदम में पारदर्शिता को बढ़ावा देना और AI-जनित सामग्री की लेखा परीक्षा के लिए तंत्र को लागू करना शामिल हो सकता है।

एक अन्य दृष्टिकोण उपयोगकर्ताओं को AI के साथ अपनी बातचीत को बेहतर ढंग से नियंत्रित करने के लिए सशक्त बनाने पर ध्यान केंद्रित कर सकता है। इसमें उपयोगकर्ताओं को AI-जनित सामग्री को फ़िल्टर करने या फ़्लैग करने के लिए उपकरण प्रदान करना शामिल हो सकता है, जिससे उन्हें उनके द्वारा उपभोग की जाने वाली जानकारी पर अधिक एजेंसी मिल सके।

अंततः, एक बहुआयामी दृष्टिकोण जो तकनीकी समाधानों, कानूनी ढांचे और उपयोगकर्ता सशक्तिकरण को जोड़ता है, AI-जनित सामग्री द्वारा उत्पन्न चुनौतियों का समाधान करने का सबसे प्रभावी तरीका हो सकता है। इस दृष्टिकोण के लिए सरकारों, तकनीकी कंपनियों, नागरिक समाज संगठनों और व्यक्तिगत उपयोगकर्ताओं के बीच सहयोग की आवश्यकता होगी।

चल रही बातचीत और अनुकूलन का महत्व

AI-जनित सामग्री के आसपास कानूनी और नैतिक परिदृश्य लगातार विकसित हो रहा है। इस प्रकार सभी हितधारकों के बीच चल रही बातचीत आवश्यक है। इस संवाद में AI तकनीक के संभावित लाभों और जोखिमों, उपयुक्त नियामक ढांचे के विकास और जिम्मेदार AI विकास और परिनियोजन को बढ़ावा देने के बारे में खुली चर्चा शामिल होनी चाहिए।

इसके अलावा, विनियमन के लिए एक लचीला और अनुकूली दृष्टिकोण अपनाना महत्वपूर्ण है। जैसे-जैसे AI तकनीक आगे बढ़ेगी, बदलते परिदृश्य के साथ तालमेल रखने के लिए विनियमों की समीक्षा और अद्यतन करने की आवश्यकता होगी। इसके लिए विभिन्न दृष्टिकोणों के साथ प्रयोग करने, सफलताओं और असफलताओं से सीखने और नियामक ढांचे को लगातार परिष्कृत करने की इच्छा की आवश्यकता है। लक्ष्य एक ऐसी प्रणाली बनाना होना चाहिए जो मौलिक अधिकारों और मूल्यों की रक्षा करते हुए नवाचार को बढ़ावा दे। इसके लिए कृत्रिम बुद्धिमत्ता की लगातार विकसित हो रही दुनिया द्वारा प्रस्तुत चुनौतियों और अवसरों के लिए एक गतिशील और उत्तरदायी दृष्टिकोण की आवश्यकता है।