चीन में एक AI वीडियो स्टार्टअप राजनीतिक रूप से संवेदनशील छवियों को सेंसर करता हुआ प्रतीत होता है
सैंड एआई (Sand AI) नामक एक चीनी स्टार्टअप अपने ऑनलाइन वीडियो जनरेशन टूल से कुछ विशेष राजनीतिक रूप से संवेदनशील छवियों को ब्लॉक करने के उपाय लागू कर रहा है। टेकक्रंच (TechCrunch) द्वारा किए गए परीक्षण के बाद यह अवलोकन आया है, जिससे पता चलता है कि कंपनी अपने मॉडल के होस्ट किए गए संस्करण को सेंसर कर रही है ताकि उन छवियों को रोका जा सके जो चीनी नियामकों को उत्तेजित कर सकती हैं।
सैंड एआई ने हाल ही में मैगी-1 (Magi-1) लॉन्च किया, जो एक खुले तौर पर लाइसेंस प्राप्त, वीडियो-जनरेटिंग AI मॉडल है। इस मॉडल को काई-फू ली (Kai-Fu Lee) जैसे व्यक्तियों ने सराहा है, जो माइक्रोसॉफ्ट रिसर्च एशिया (Microsoft Research Asia) के संस्थापक निदेशक हैं, जो क्षेत्र में इसकी क्षमता और नवाचार पर प्रकाश डालते हैं। मैगी-1 वीडियो उत्पन्न करने के लिए फ्रेम के अनुक्रमों का ‘ऑटोरिग्रेसिवली’ (autoregressively) अनुमान लगाकर संचालित होता है। सैंड एआई का दावा है कि मैगी-1 उच्च-गुणवत्ता, नियंत्रण योग्य फुटेज का उत्पादन कर सकता है जो भौतिकी को सटीक रूप से कैप्चर करता है, बाजार में अन्य खुले मॉडलों को बेहतर प्रदर्शन करता है।
मैगी-1 की तकनीकी विशिष्टताएँ और पहुँच
मैगी-1 का व्यावहारिक अनुप्रयोग इसकी मांगलिक हार्डवेयर आवश्यकताओं द्वारा सीमित है। मॉडल में 24 बिलियन पैरामीटर हैं और इसे फ़ंक्शन करने के लिए चार से आठ Nvidia H100 GPU की आवश्यकता होती है। यह सैंड एआई के प्लेटफॉर्म को कई उपयोगकर्ताओं के लिए मैगी-1 की क्षमताओं का परीक्षण करने के लिए प्राथमिक और अक्सर एकमात्र सुलभ स्थल बनाता है।
प्लेटफ़ॉर्म पर वीडियो जनरेशन प्रक्रिया एक ‘प्रॉम्प्ट’ (prompt) छवि से शुरू होती है। हालाँकि, सभी छवियों को स्वीकार नहीं किया जाता है। टेकक्रंच की जांच से पता चला है कि सैंड एआई का सिस्टम शी जिनपिंग (Xi Jinping), तियानमेन स्क्वायर (Tiananmen Square) और ‘टैंक मैन’ (Tank Man) की घटना, ताइवानी झंडा (Taiwanese flag) और हांगकांग के मुक्ति आंदोलन (Hong Kong’s liberation movement) से जुड़े प्रतीकों को दर्शाने वाली छवियों के अपलोड को ब्लॉक करता है। यह फ़िल्टरिंग सिस्टम छवि स्तर पर संचालित होता हुआ प्रतीत होता है, क्योंकि केवल छवि फ़ाइलों का नाम बदलने से प्रतिबंधों को बायपास नहीं किया जा सकता है।
अन्य चीनी AI प्लेटफॉर्म के साथ तुलना
सैंड एआई एकमात्र चीनी स्टार्टअप नहीं है जो अपने वीडियो जनरेशन टूल पर राजनीतिक रूप से संवेदनशील छवियों के अपलोड को प्रतिबंधित करता है। शंघाई स्थित मिनीमैक्स (MiniMax) के जेनरेटिव मीडिया प्लेटफॉर्म हैलुओ एआई (Hailuo AI) भी शी जिनपिंग की छवियों को ब्लॉक करता है। हालाँकि, सैंड एआई का फ़िल्टरिंग तंत्र अधिक कठोर प्रतीत होता है। उदाहरण के लिए, हैलुओ एआई तियानमेन स्क्वायर की छवियों की अनुमति देता है, जो सैंड एआई नहीं देता है।
इन कठोर नियंत्रणों की आवश्यकता चीनी नियमों में निहित है। जैसा कि वायर्ड (Wired) ने जनवरी में बताया था, चीन में AI मॉडल को सख्त सूचना नियंत्रणों का पालन करने का आदेश दिया गया है। एक 2023 कानून स्पष्ट रूप से AI मॉडल को ऐसी सामग्री उत्पन्न करने से रोकता है जो ‘देश की एकता और सामाजिक सद्भाव को नुकसान पहुंचाती है’। इस व्यापक परिभाषा में कोई भी ऐसी सामग्री शामिल हो सकती है जो सरकार के ऐतिहासिक और राजनीतिक कथाओं का खंडन करती है। इन नियमों का पालन करने के लिए, चीनी स्टार्टअप अक्सर प्रॉम्प्ट-स्तर के फ़िल्टर का उपयोग करते हैं या संभावित रूप से समस्याग्रस्त सामग्री को सेंसर करने के लिए अपने मॉडल को ठीक से ट्यून करते हैं।
सेंसरशिप दृष्टिकोण का विपरीत: राजनीतिक बनाम पोर्नोग्राफिक सामग्री
दिलचस्प बात यह है कि, जबकि चीनी AI मॉडल अक्सर राजनीतिक भाषण के संबंध में भारी सेंसर किए जाते हैं, लेकिन कभी-कभी उनके अमेरिकी समकक्षों की तुलना में पोर्नोग्राफिक सामग्री पर कम प्रतिबंध होते हैं। 404 द्वारा हाल ही में प्रकाशित एक रिपोर्ट में संकेत दिया गया है कि चीनी कंपनियों के कई वीडियो जनरेटर में गैर-सहमति वाली नग्न छवियों की पीढ़ी को रोकने के लिए बुनियादी सुरक्षा उपायों का अभाव है।
सैंड एआई और अन्य चीनी तकनीक कंपनियों की कार्रवाइयाँ AI क्षेत्र में तकनीकी नवाचार, राजनीतिक नियंत्रण और नैतिक विचारों के बीच जटिल अंतर्संबंध को रेखांकित करती हैं। जैसे-जैसे AI तकनीक का विकास जारी है, सेंसरशिप, अभिव्यक्ति की स्वतंत्रता और AI डेवलपर्स की जिम्मेदारियों पर बहस निस्संदेह तेज होगी।
मैगी-1 के तकनीकी पहलुओं में गहराई से उतरना
मैगी-1 वीडियो जनरेशन तकनीक में एक महत्वपूर्ण प्रगति का प्रतिनिधित्व करता है, मुख्य रूप से इसके ऑटोरिग्रेसिव दृष्टिकोण के कारण। इस पद्धति में मॉडल फ्रेम के अनुक्रमों का अनुमान लगाना शामिल है, जो अधिक सूक्ष्म और सुसंगत वीडियो आउटपुट की अनुमति देता है। यह दावा कि मैगी-1 प्रतिद्वंद्वी खुले मॉडलों की तुलना में भौतिकी को अधिक सटीक रूप से कैप्चर कर सकता है, विशेष रूप से उल्लेखनीय है। इससे पता चलता है कि मॉडल ऐसे वीडियो उत्पन्न करने में सक्षम है जो यथार्थवादी आंदोलनों और इंटरैक्शन को प्रदर्शित करते हैं, जिससे यह मनोरंजन, शिक्षा और वैज्ञानिक विज़ुअलाइज़ेशन सहित विभिन्न अनुप्रयोगों के लिए एक मूल्यवान उपकरण बन जाता है।
मॉडल की प्रभावशाली क्षमताएं इसके आकार और हार्डवेयर आवश्यकताओं में भी परिलक्षित होती हैं। 24 बिलियन पैरामीटर के साथ, मैगी-1 एक जटिल और कम्प्यूटेशनल रूप से गहन मॉडल है। Nvidia H100s जैसे कई उच्च-अंत GPU की आवश्यकता प्रभावी ढंग से चलाने के लिए आवश्यक महत्वपूर्ण संसाधनों को रेखांकित करती है। इस सीमा का मतलब है कि जबकि मैगी-1 एक ओपन-सोर्स मॉडल है, व्यक्तिगत उपयोगकर्ताओं और छोटे संगठनों के लिए इसकी पहुँच प्रतिबंधित है। इसलिए, सैंड एआई का प्लेटफ़ॉर्म कई लोगों के लिए इस अत्याधुनिक तकनीक का अनुभव करने और प्रयोग करने के लिए एक महत्वपूर्ण प्रवेश द्वार के रूप में कार्य करता है।
AI विकास पर सेंसरशिप के निहितार्थ
सैंड एआई और अन्य चीनी AI कंपनियों द्वारा लागू किए गए सेंसरशिप प्रथाएँ AI विकास के भविष्य और समाज पर इसके प्रभाव के बारे में महत्वपूर्ण प्रश्न उठाती हैं। जबकि स्थानीय नियमों का पालन करने की आवश्यकता समझ में आती है, राजनीतिक रूप से संवेदनशील सामग्री को सेंसर करने के कार्य के दूरगामी परिणाम हो सकते हैं।
सबसे पहले, यह उन AI मॉडलों के दायरे को सीमित करके नवाचार को रोक सकता है जो बना सकते हैं। जब डेवलपर्स को कुछ विषयों या दृष्टिकोणों से बचने के लिए मजबूर किया जाता है, तो यह नए विचारों का पता लगाने और AI के साथ क्या संभव है की सीमाओं को आगे बढ़ाने की उनकी क्षमता को बाधित कर सकता है। यह अंततः AI तकनीक की प्रगति को धीमा कर सकता है और इसके संभावित लाभों को सीमित कर सकता है।
दूसरा, सेंसरशिप AI सिस्टम में विश्वास को कम कर सकती है। जब उपयोगकर्ताओं को पता होता है कि AI मॉडल को एक विशेष राजनीतिक एजेंडे के अनुरूप हेरफेर किया जा रहा है, तो उनके आउटपुट पर विश्वास करने या जानकारी के लिए उस पर निर्भर रहने की संभावना कम हो सकती है। इससे संदेह और अविश्वास हो सकता है, जो समाज में AI तकनीक को अपनाने और स्वीकृति को कमजोर कर सकता है।
तीसरा, सेंसरशिप वास्तविकता का विकृत दृष्टिकोण बना सकती है। चुनिंदा रूप से जानकारी और दृष्टिकोणों को फ़िल्टर करके, AI मॉडल दुनिया की एक पक्षपाती या अधूरी तस्वीर पेश कर सकते हैं। इसका जनमत पर महत्वपूर्ण प्रभाव पड़ सकता है और यहां तक कि लोगों की मान्यताओं और व्यवहारों में हेरफेर करने के लिए भी इस्तेमाल किया जा सकता है।
व्यापक संदर्भ: चीन में AI विनियमन
चीन में नियामक वातावरण AI तकनीक के विकास और परिनियोजन को आकार देने में महत्वपूर्ण भूमिका निभाता है। 2023 का कानून जो AI मॉडल को ऐसी सामग्री उत्पन्न करने से रोकता है जो ‘देश की एकता और सामाजिक सद्भाव को नुकसान पहुंचाती है’, सरकार के सूचना के प्रवाह को नियंत्रित करने और सामाजिक स्थिरता बनाए रखने के प्रयासों का सिर्फ एक उदाहरण है।
इन नियमों का चीन में काम करने वाली AI कंपनियों पर महत्वपूर्ण प्रभाव पड़ता है। उन्हें कानून का उल्लंघन करने से बचने के लिए जटिल और अक्सर अस्पष्ट आवश्यकताओं को सावधानीपूर्वक नेविगेट करना होगा। यह एक चुनौतीपूर्ण कार्य हो सकता है, क्योंकि ‘हानिकारक’ सामग्री का गठन करने की परिभाषा अक्सर व्याख्या के लिए खुली होती है।
इसके अलावा, नियम नवाचार पर एक ठंडा प्रभाव डाल सकते हैं। AI डेवलपर्स अधिकारियों से अवांछित ध्यान आकर्षित करने के डर से कुछ विषयों का पता लगाने या नए विचारों के साथ प्रयोग करने में संकोच कर सकते हैं। यह रचनात्मकता को रोक सकता है और दुनिया की कुछ सबसे गंभीर चुनौतियों का समाधान करने के लिए AI तकनीक की क्षमता को सीमित कर सकता है।
AI सेंसरशिप की नैतिक दुविधाएँ
AI सेंसरशिप की प्रथा कई नैतिक दुविधाओं को उठाती है। सबसे जरूरी में से एक यह सवाल है कि किसे यह तय करना चाहिए कि कौन सी सामग्री स्वीकार्य है और कौन सी नहीं। चीन के मामले में, सरकार ने इन मानकों को स्थापित करने में अग्रणी भूमिका निभाई है। हालाँकि, इससे राजनीतिक पूर्वाग्रह की संभावना और असहमतिपूर्ण आवाजों के दमन के बारे में चिंताएँ बढ़ जाती हैं।
एक और नैतिक दुविधा पारदर्शिता का सवाल है। क्या AI कंपनियों को अपनी सेंसरशिप प्रथाओं के बारे में पारदर्शी होना चाहिए? क्या उन्हें उन मानदंडों का खुलासा करना चाहिए जिनका उपयोग वे सामग्री को फ़िल्टर करने के लिए करते हैं और उनके निर्णयों के कारण? विश्वास बनाने और यह सुनिश्चित करने के लिए पारदर्शिता आवश्यक है कि AI सिस्टम का उपयोग जिम्मेदारी से किया जाए। हालाँकि, इसे व्यवहार में लागू करना भी चुनौतीपूर्ण हो सकता है, क्योंकि इसके लिए कंपनियों को अपने एल्गोरिदम और डेटा के बारे में संवेदनशील जानकारी का खुलासा करने की आवश्यकता हो सकती है।
एक और नैतिक दुविधा जवाबदेही का सवाल है। AI सिस्टम द्वारा गलतियाँ करने या नुकसान पहुंचाने पर किसे जवाबदेह ठहराया जाना चाहिए? क्या यह डेवलपर्स, ऑपरेटरों या उपयोगकर्ताओं को होना चाहिए? यह सुनिश्चित करने के लिए जवाबदेही की स्पष्ट रेखाएँ स्थापित करना आवश्यक है कि AI सिस्टम का उपयोग नैतिक और जिम्मेदारी से किया जाए।
AI और सेंसरशिप का भविष्य
जैसे-जैसे AI तकनीक का विकास जारी है, सेंसरशिप पर बहस तेज होने की संभावना है। सूचना को नियंत्रित करने की इच्छा और नवाचार को बढ़ावा देने की आवश्यकता के बीच तनाव AI सिस्टम के विकास और परिनियोजन को आकार देना जारी रखेगा।
एक संभावित भविष्य एक ऐसी दुनिया है जहां AI सिस्टम भारी सेंसर किए जाते हैं और सरकारों द्वारा नियंत्रित होते हैं। इस परिदृश्य में, AI तकनीक का उपयोग मौजूदा शक्ति संरचनाओं को मजबूत करने और असहमति को दबाने के लिए किया जाता है। इससे नवाचार का दम घुट सकता है और व्यक्तिगत स्वतंत्रता में गिरावट आ सकती है।
एक और संभावित भविष्य एक ऐसी दुनिया है जहां AI सिस्टम अधिक खुले और पारदर्शी हैं। इस परिदृश्य में, AI तकनीक का उपयोग व्यक्तियों को सशक्त बनाने और लोकतंत्र को बढ़ावा देने के लिए किया जाता है। इससे रचनात्मकता और नवाचार का विकास हो सकता है, साथ ही विश्वास और जवाबदेही की अधिक भावना भी हो सकती है।
AI और सेंसरशिप का भविष्य उन विकल्पों पर निर्भर करेगा जो हम आज करते हैं। AI तकनीक के नैतिक, सामाजिक और राजनीतिक निहितार्थों के बारे में एक विचारशील और सूचित बहस में शामिल होना आवश्यक है। एक साथ काम करके, हम यह सुनिश्चित कर सकते हैं कि AI का उपयोग एक अधिक न्यायपूर्ण और न्यायसंगत दुनिया बनाने के लिए किया जाए।
AI सामग्री विनियमन की जटिलताओं को नेविगेट करना
सैंड एआई का मामला AI सामग्री विनियमन से संबंधित जटिल चुनौतियों को उजागर करता है, विशेष रूप से कठोर राजनीतिक और सामाजिक नियंत्रण वाले संदर्भों में। नवाचार को बढ़ावा देने, नियामक आवश्यकताओं का पालन करने और नैतिक सिद्धांतों को बनाए रखने के बीच संतुलन एक नाजुक संतुलन है। जैसे-जैसे AI हमारे जीवन के विभिन्न पहलुओं में प्रवेश करता जा रहा है, इसके विनियमन के आसपास की चर्चा बहुआयामी होनी चाहिए, जिसमें कानूनी, नैतिक और तकनीकी विचार शामिल होने चाहिए।
दुनिया भर की सरकारें AI शासन के लिए उपयुक्त ढाँचे स्थापित करने के कार्य से जूझ रही हैं। ये ढाँचे पूर्वाग्रह, गोपनीयता, सुरक्षा और जवाबदेही जैसी चिंताओं को दूर करने का लक्ष्य रखते हैं। हालाँकि, AI विकास की तीव्र गति नियमों को अद्यतित और प्रासंगिक बनाए रखने को चुनौतीपूर्ण बनाती है।
इसके अलावा, AI की वैश्विक प्रकृति अतिरिक्त जटिलताएँ प्रस्तुत करती है। विभिन्न देशों के अलग-अलग मूल्य और प्राथमिकताएँ होती हैं, जो परस्पर विरोधी नियमों और मानकों को जन्म दे सकती हैं। यह AI कंपनियों के लिए चुनौतियाँ पैदा करता है जो सीमाओं के पार काम करते हैं, क्योंकि उन्हें कानूनी और नैतिक आवश्यकताओं के एक जटिल जाल को नेविगेट करना होगा।
भविष्य को आकार देने में AI डेवलपर्स की भूमिका
AI डेवलपर्स की AI के भविष्य को आकार देने में महत्वपूर्ण भूमिका है। वे ही हैं जो AI सिस्टम को डिज़ाइन और बनाते हैं, और उनकी यह सुनिश्चित करने की जिम्मेदारी है कि इन सिस्टम का उपयोग नैतिक और जिम्मेदारी से किया जाए।
इसमें AI एल्गोरिदम में पूर्वाग्रह की संभावना के प्रति सचेत रहना और इसे कम करने के लिए कदम उठाना शामिल है। इसमें यह भी शामिल है कि AI सिस्टम कैसे काम करते हैं, इसके बारे में पारदर्शी होना और उपयोगकर्ताओं को उनके निर्णयों की स्पष्ट व्याख्या प्रदान करना।
इसके अलावा, AI डेवलपर्स को AI विनियमन पर बहस में सक्रिय रूप से शामिल होना चाहिए। उनके पास मूल्यवान अंतर्दृष्टि और विशेषज्ञता है जो नीति निर्माताओं को सूचित निर्णय लेने में मदद कर सकती है।
एक साथ काम करके, AI डेवलपर्स, नीति निर्माता और जनता यह सुनिश्चित कर सकते हैं कि AI का उपयोग सभी के लिए एक बेहतर भविष्य बनाने के लिए किया जाए।
निष्कर्ष
सैंड एआई और इसकी सेंसरशिप प्रथाओं की कहानी AI तकनीक के विकास और परिनियोजन में आने वाली जटिल चुनौतियों और नैतिक विचारों की याद दिलाती है। जैसे-जैसे AI का विकास जारी है, इसके संभावित लाभों और जोखिमों के बारे में खुली और ईमानदार चर्चा में शामिल होना आवश्यक है। एक साथ काम करके, हम यह सुनिश्चित कर सकते हैं कि AI का उपयोग एक अधिक न्यायपूर्ण, न्यायसंगत और समृद्ध दुनिया बनाने के लिए किया जाए।