चीनमधील AI स्टार्टअप राजकीय प्रतिमांवर सेन्सॉरशिप?

चीनमधील एआय व्हिडिओ स्टार्टअप राजकीयदृष्ट्या संवेदनशील प्रतिमांवर सेन्सॉरशिप करत आहे का?

सँड एआय (Sand AI) नावाचे एक चीनी स्टार्टअप, त्यांच्या ऑनलाइन व्हिडिओ जनरेशन टूलमधून विशिष्ट राजकीयदृष्ट्या संवेदनशील प्रतिमा अवरोधित करण्यासाठी उपाययोजना करत असल्याचे दिसते. TechCrunch ने केलेल्या चाचणीनंतर हे निरीक्षण समोर आले आहे, ज्यामुळे असे दिसून येते की कंपनी तिच्या मॉडेलच्या होस्ट केलेल्या आवृत्ती सेन्सॉर करत आहे, जेणेकरून चिनी नियामकांना भडकवणार्‍या प्रतिमा टाळता येतील.

सँड एआयने (Sand AI) अलीकडेच मॅगी-1 (Magi-1) लाँच केले, जे मुक्तपणे परवानाकृत, व्हिडिओ-जनरेटिंग एआय मॉडेल आहे. या मॉडेलची कै-फू ली (Kai-Fu Lee) यांसारख्या व्यक्तींनी प्रशंसा केली आहे, जे मायक्रोसॉफ्ट रिसर्च एशियाचे (Microsoft Research Asia) संस्थापक संचालक आहेत, ज्याने या क्षेत्रातील त्याची क्षमता आणि नवकल्पना अधोरेखित केली आहे. मॅगी-1 (Magi-1) व्हिडिओ तयार करण्यासाठी फ्रेम्सच्या सिक्वेन्सचा ‘ऑटोरिग्रेसिव्हली’ (autoregressively) अंदाज लावून कार्य करते. सँड एआयचा (Sand AI) दावा आहे की मॅगी-1 (Magi-1) उच्च-गुणवत्तेचे, नियंत्रणीय फुटेज तयार करू शकते जे भौतिकशास्त्र अचूकपणे कॅप्चर करते आणि बाजारातील इतर ओपन मॉडेल्सपेक्षा सरस ठरते.

मॅगी-1 (Magi-1) ची तांत्रिक वैशिष्ट्ये आणि उपलब्धता

मॅगी-1 (Magi-1) च्या व्यावहारिक उपयोजना त्याच्या मागणी असलेल्या हार्डवेअर आवश्यकतांमुळे मर्यादित आहेत. मॉडेलमध्ये 24 अब्ज पॅरामीटर्स (parameters) आहेत आणि ते कार्यान्वित करण्यासाठी चार ते आठ Nvidia H100 GPUs ची आवश्यकता आहे. यामुळे सँड एआयचे (Sand AI) प्लॅटफॉर्म (platform) अनेक वापरकर्त्यांसाठी मॅगी-1 (Magi-1) ची क्षमता तपासण्यासाठी प्राथमिक आणि बहुतेक वेळा एकमेव प्रवेशयोग्य ठिकाण बनले आहे.

प्लॅटफॉर्मवरील व्हिडिओ जनरेशन प्रक्रिया ‘प्रॉम्प्ट’ (prompt) प्रतिमेने सुरू होते. तथापि, सर्व प्रतिमा स्वीकारल्या जात नाहीत. TechCrunch च्या तपासणीत असे दिसून आले आहे की सँड एआयचे (Sand AI) सिस्टम (system) शी जिनपिंग (Xi Jinping), तियानआनमेन स्क्वेअर (Tiananmen Square) आणि ‘टँक मॅन’ (Tank Man) घटनेचे चित्रण, तैवानचा ध्वज आणि हाँगकाँगच्या (Hong Kong) मुक्ति आंदोलनाशी संबंधित चिन्हे अपलोड (upload) करण्यास ब्लॉक (block) करते. हे फिल्टरिंग (filtering) सिस्टम (system) इमेज स्तरावर कार्य करते, कारण केवळ इमेज फाइलचे नाव बदलल्याने निर्बंध बायपास (bypass) होत नाहीत.

इतर चीनी एआय प्लॅटफॉर्मशी तुलना

सँड एआय (Sand AI) हे एकमेव चीनी स्टार्टअप नाही जे त्यांच्या व्हिडिओ जनरेशन टूल्सवर (video generation tools) राजकीयदृष्ट्या संवेदनशील प्रतिमांचे अपलोडिंग (uploading) प्रतिबंधित करते. शांघाय-आधारित मिनीमॅक्सचे (MiniMax) जनरेटिव्ह मीडिया प्लॅटफॉर्म (generative media platform) हेलो एआय (Hailuo AI) देखील शी जिनपिंग (Xi Jinping) यांच्या प्रतिमांना ब्लॉक (block) करते. तथापि, सँड एआयची (Sand AI) फिल्टरिंग (filtering) यंत्रणा अधिक कठोर असल्याचे दिसते. उदाहरणार्थ, हेलो एआय (Hailuo AI) तियानआनमेन स्क्वेअरच्या (Tiananmen Square) प्रतिमांना परवानगी देते, ज्याला सँड एआय (Sand AI) परवानगी देत नाही.

या कठोर नियंत्रणांची आवश्यकता चिनी नियमांमुळे आहे. Wired ने जानेवारीमध्ये नोंदवल्याप्रमाणे, चीनमधील एआय मॉडेल्सना (AI models) कठोर माहिती नियंत्रणाचे पालन करणे अनिवार्य आहे. 2023 चा कायदा स्पष्टपणे एआय मॉडेल्सना (AI models) अशी सामग्री (content) तयार करण्यास प्रतिबंधित करतो जी ‘देशाची एकता आणि सामाजिक सलोखा बिघडवते.’ या व्यापक व्याख्येत कोणतीही सामग्री (content) समाविष्ट असू शकते जी सरकारच्या ऐतिहासिक आणि राजकीय कथनांचा विरोध करते. या नियमांचे पालन करण्यासाठी, चिनी स्टार्टअप्स (startups) अनेकदा प्रॉम्प्ट-लेव्हल फिल्टर्स (prompt-level filters) वापरतात किंवा संभाव्य समस्याप्रधान सामग्री (content) सेन्सॉर (censor) करण्यासाठी त्यांच्या मॉडेल्सना फाइन-ट्यून (fine-tune) करतात.

सेन्सॉरशिप दृष्टिकोन: राजकीय विरुद्ध पोर्नोग्राफिक सामग्री

विशेष म्हणजे, चीनी एआय मॉडेल्सवर (AI models) राजकीय भाषणासंदर्भात अनेकदा मोठ्या प्रमाणावर सेन्सॉरशिप (censorship) केली जात असली तरी, त्यांच्या अमेरिकन (American) समकक्षांच्या तुलनेत पोर्नोग्राफिक (pornographic) सामग्रीवर काहीवेळा कमी निर्बंध असतात. 404 च्या अलीकडील अहवालानुसार, बर्‍याच चीनी कंपन्यांच्या व्हिडिओ जनरेटर्समध्ये (video generators) नॉन-कन्सेन्सुअल न्यूड इमेजेस (non-consensual nude images) तयार होण्यापासून रोखण्यासाठी मूलभूत सुरक्षा उपायांचा अभाव आहे.

सँड एआय (Sand AI) आणि इतर चीनी तंत्रज्ञान कंपन्यांच्या कृती एआय (AI) क्षेत्रातील तांत्रिक नवोपक्रम, राजकीय नियंत्रण आणि नैतिक विचार यांच्यातील गुंतागुंतीच्या आंतरक्रिया दर्शवतात. एआय (AI) तंत्रज्ञान विकसित होत आहे, त्यामुळे सेन्सॉरशिप (censorship), अभिव्यक्ती स्वातंत्र्य आणि एआय (AI) विकासकांच्या जबाबदाऱ्या यावरील वाद अधिक तीव्र होतील.

मॅगी-1 (Magi-1) च्या तांत्रिक पैलूंचा सखोल अभ्यास

मॅगी-1 (Magi-1) व्हिडिओ जनरेशन (video generation) तंत्रज्ञानातील महत्त्वपूर्ण प्रगती दर्शवते, मुख्यत्वे त्याच्या ऑटोरिग्रेसिव्ह (autoregressive) दृष्टिकोनमुळे. या पद्धतीमध्ये मॉडेल फ्रेम्सच्या (frames) सिक्वेन्सचा (sequence) अंदाज लावते, ज्यामुळे अधिक सूक्ष्म आणि सुसंगत व्हिडिओ आउटपुट (video output) मिळतो. मॅगी-1 (Magi-1) प्रतिस्पर्धी ओपन मॉडेल्सपेक्षा (open models) अधिक अचूकपणे भौतिकशास्त्र कॅप्चर (capture) करू शकते हा दावा विशेष उल्लेखनीय आहे. हे सूचित करते की मॉडेल वास्तववादी हालचाली आणि परस्परसंवाद दर्शवणारे व्हिडिओ तयार करण्यास सक्षम आहे, ज्यामुळे ते मनोरंजन, शिक्षण आणि वैज्ञानिक व्हिज्युअलायझेशन (scientific visualization) यांसारख्या विविध अनुप्रयोगांसाठी एक मौल्यवान साधन बनते.

मॉडेलची प्रभावी क्षमता त्याच्या आकारात आणि हार्डवेअर (hardware) आवश्यकतांमध्ये देखील दिसून येते. 24 अब्ज पॅरामीटर्ससह (parameters), मॅगी-1 (Magi-1) एक जटिल आणि संगणकीयदृष्ट्या गहन मॉडेल आहे. Nvidia H100s सारख्या एकाधिक उच्च-एंड GPUs ची आवश्यकता प्रभावीपणे चालवण्यासाठी आवश्यक असलेल्या महत्त्वपूर्ण संसाधनांना अधोरेखित करते. या मर्यादेचा अर्थ असा आहे की मॅगी-1 (Magi-1) एक ओपन-सोर्स मॉडेल (open-source model) असताना, वैयक्तिक वापरकर्त्यांसाठी आणि लहान संस्थांसाठी त्याची उपलब्धता मर्यादित आहे. त्यामुळे सँड एआयचे (Sand AI) प्लॅटफॉर्म (platform) बर्‍याच लोकांसाठी या अत्याधुनिक तंत्रज्ञानाचा अनुभव घेण्यासाठी आणि प्रयोग करण्यासाठी एक महत्त्वपूर्ण प्रवेशद्वार म्हणून काम करते.

एआय (AI) विकासावर सेन्सॉरशिपचा (censorship) प्रभाव

सँड एआय (Sand AI) आणि इतर चीनी एआय (AI) कंपन्यांनी अंमलात आणलेल्या सेन्सॉरशिप (censorship) पद्धती एआय (AI) विकासाच्या भविष्याबद्दल आणि समाजावरील त्याच्या प्रभावाबद्दल महत्त्वपूर्ण प्रश्न उभे करतात. स्थानिक नियमांचे पालन करण्याची गरज समजू शकते, परंतु राजकीयदृष्ट्या संवेदनशील सामग्री (content) सेन्सॉर (censor) करण्याच्या कृतीमुळे दूरगामी परिणाम होऊ शकतात.

प्रथम, एआय (AI) मॉडेल्स (models) काय तयार करू शकतात याची व्याप्ती मर्यादित करून ते नवकल्पनांना दाबून टाकू शकते. जेव्हा विकासकांना विशिष्ट विषय किंवा दृष्टिकोन टाळण्यास भाग पाडले जाते, तेव्हा ते नवीन कल्पना शोधण्याची आणि एआय (AI) च्या माध्यमातून काय शक्य आहे याची सीमा वाढवण्याची त्यांची क्षमता रोखू शकते. हे अखेरीस एआय (AI) तंत्रज्ञानाचा विकास मंदावू शकते आणि त्याचे संभाव्य फायदे मर्यादित करू शकते.

दुसरे म्हणजे, सेन्सॉरशिप (censorship) एआय (AI) सिस्टम्सवरील (systems) विश्वास कमी करू शकते. जेव्हा वापरकर्त्यांना हे माहित असते की एआय (AI) मॉडेलला (model) विशिष्ट राजकीय अजेंड्याचे पालन करण्यासाठी हाताळले जात आहे, तेव्हा ते त्याचे आउटपुट (output) विश्वसनीय मानण्याची किंवा माहितीसाठी त्यावर अवलंबून राहण्याची शक्यता कमी असते. यामुळे संशय आणि अविश्वास निर्माण होऊ शकतो, जो समाजात एआय (AI) तंत्रज्ञानाचा अवलंब आणि स्वीकृती कमी करू शकतो.

तिसरे म्हणजे, सेन्सॉरशिप (censorship) वास्तवाचा विकृत दृष्टिकोन तयार करू शकते. निवडकपणे माहिती आणि दृष्टिकोन फिल्टर (filter) करून, एआय (AI) मॉडेल्स (models) जगाचे पक्षपाती किंवा अपूर्ण चित्र सादर करू शकतात. याचा सार्वजनिक मतावर महत्त्वपूर्ण प्रभाव पडू शकतो आणि लोकांच्या श्रद्धा आणि वर्तनांवर प्रभाव टाकण्यासाठी देखील याचा उपयोग केला जाऊ शकतो.

व्यापक संदर्भः चीनमधील एआय (AI) नियमन

चीनमधील नियामक वातावरण एआय (AI) तंत्रज्ञानाच्या विकास आणि उपयोजनाला आकार देण्यात महत्त्वपूर्ण भूमिका बजावते. ‘देशाची एकता आणि सामाजिक सलोखा बिघडवणारी’ सामग्री (content) तयार करण्यापासून एआय (AI) मॉडेल्सना (models) प्रतिबंधित करणारा 2023 चा कायदा हे माहितीचा प्रवाह नियंत्रित करण्यासाठी आणि सामाजिक स्थिरता राखण्यासाठी सरकारच्या प्रयत्नांचे एक उदाहरण आहे.

या नियमांमुळे चीनमध्ये कार्यरत असलेल्या एआय (AI) कंपन्यांवर महत्त्वपूर्ण परिणाम होतो. कायद्याचे उल्लंघन टाळण्यासाठी त्यांना जटिल आणि अनेकदा संदिग्ध आवश्यकता काळजीपूर्वक पार पाडाव्या लागतात. हे एक आव्हानात्मक कार्य असू शकते, कारण ‘नुकसानकारक’ किंवा ‘हानिकारक’ सामग्री (content) कशास म्हणावे याची व्याख्या अनेकदा अर्थ लावण्यासाठी खुली असते.

शिवाय, नियमांमुळे नवकल्पनांवर नकारात्मक परिणाम होऊ शकतो. एआय (AI) विकासक (developer) काही विशिष्ट विषय शोधण्यास किंवा अधिकाऱ्यांकडून नको असलेले लक्ष वेधण्याच्या भीतीने नवीन कल्पनांवर प्रयोग करण्यास संकोच करू शकतात. हे सर्जनशीलतेला दाबून ठेवू शकते आणि जगातील काही गंभीर समस्यांचे निराकरण करण्यासाठी एआय (AI) तंत्रज्ञानाची क्षमता मर्यादित करू शकते.

एआय (AI) सेन्सॉरशिपच्या (censorship) नैतिक दुविधा

एआय (AI) सेन्सॉरशिपची (censorship) प्रथा अनेक नैतिक दुविधा निर्माण करते. त्यापैकी सर्वात महत्त्वाचा प्रश्न म्हणजे कोणती सामग्री (content) स्वीकार्य आहे आणि कोणती नाही हे कोणी ठरवावे? चीनच्या बाबतीत, सरकारने हे मानक (standard) निश्चित करण्यात आघाडीची भूमिका घेतली आहे. तथापि, यामुळे राजकीय पूर्वाग्रह आणि असहमती दर्शविणाऱ्या आवाजांना दाबले जाण्याची शक्यता वाढते.

आणखी एक नैतिक दुविधा म्हणजे पारदर्शकता. एआय (AI) कंपन्यांनी त्यांच्या सेन्सॉरशिप (censorship) पद्धतींबद्दल पारदर्शक असले पाहिजे का? त्यांनी सामग्री (content) फिल्टर (filter) करण्यासाठी वापरलेले निकष आणि त्यांच्या निर्णयांची कारणे उघड करावीत का? विश्वास निर्माण करण्यासाठी आणि एआय (AI) सिस्टम्सचा (systems) जबाबदारीने वापर सुनिश्चित करण्यासाठी पारदर्शकता आवश्यक आहे. तथापि, हे व्यवहारात अंमलात आणणे देखील आव्हानात्मक असू शकते, कारण कंपन्यांना त्यांच्या अल्गोरिदम (algorithms) आणि डेटा (data) बद्दल संवेदनशील माहिती उघड करणे आवश्यक असू शकते.

पुढील नैतिक दुविधा म्हणजे उत्तरदायित्व. एआय (AI) सिस्टम्स (systems) चुका करतात किंवा नुकसान करतात तेव्हा कोणाला जबाबदार धरले पाहिजे? ते विकासक, ऑपरेटर (operator) किंवा वापरकर्ते असावेत? एआय (AI) सिस्टम्सचा (systems) नैतिक आणि जबाबदारीने वापर सुनिश्चित करण्यासाठी उत्तरदायित्वाच्या स्पष्ट ओळी स्थापित करणे आवश्यक आहे.

एआय (AI) आणि सेन्सॉरशिपचे (censorship) भविष्य

एआय (AI) तंत्रज्ञान जसजसे प्रगत होत जाईल, तसतसे सेन्सॉरशिपवरील (censorship) वाद तीव्र होण्याची शक्यता आहे. माहिती नियंत्रित करण्याची इच्छा आणि नवकल्पना वाढवण्याची गरज यांच्यातील तणाव एआय (AI) सिस्टम्सच्या (systems) विकास आणि उपयोजनाला आकार देत राहील.

एक संभाव्य भविष्य अशी जगाची आहे जिथे एआय (AI) सिस्टम्सवर (systems) सरकारद्वारे मोठ्या प्रमाणावर सेन्सॉरशिप (censorship) आणि नियंत्रण ठेवले जाते. या परिस्थितीत, एआय (AI) तंत्रज्ञानाचा उपयोग विद्यमान सत्ता संरचना मजबूत करण्यासाठी आणि असहमती दाबण्यासाठी केला जातो. यामुळे नवकल्पना दाबल्या जाऊ शकतात आणि वैयक्तिक स्वातंत्र्यात घट होऊ शकते.

आणखी एक संभाव्य भविष्य म्हणजे असे जग जिथे एआय (AI) सिस्टम्स (systems) अधिक खुल्या आणि पारदर्शक आहेत. या परिस्थितीत, एआय (AI) तंत्रज्ञानाचा उपयोग व्यक्तींना सक्षम करण्यासाठी आणि लोकशाहीला प्रोत्साहन देण्यासाठी केला जातो. यामुळे सर्जनशीलता आणि नवकल्पनांचा विकास होऊ शकतो, तसेच विश्वास आणि उत्तरदायित्वाची भावना वाढू शकते.

एआय (AI) आणि सेन्सॉरशिपचे (censorship) भविष्य आज आपण घेतलेल्या निर्णयांवर अवलंबून असेल. एआय (AI) तंत्रज्ञानाच्या नैतिक, सामाजिक आणि राजकीय परिणामांवर विचारपूर्वक आणि माहितीपूर्ण चर्चा करणे आवश्यक आहे. एकत्र काम करून, आपण हे सुनिश्चित करू शकतो की एआय (AI) चा उपयोग अधिक न्याय्य आणि समान जग निर्माण करण्यासाठी केला जाईल.

एआय (AI) सामग्री (content) नियमनाच्या गुंतागुंतीतून मार्ग काढणे

सँड एआयचे (Sand AI) प्रकरण एआय (AI) सामग्री (content) नियमनाशी संबंधित गुंतागुंतीच्या आव्हानांवर प्रकाश टाकते, विशेषत: कठोर राजकीय आणि सामाजिक नियंत्रणाcontext मध्ये. नवकल्पना वाढवणे, नियामक आवश्यकतांचे पालन करणे आणि नैतिक तत्त्वांचे पालन करणे यांच्यातील संतुलन नाजूक आहे. एआय (AI) आपल्या जीवनातील विविध पैलूंमध्ये प्रवेश करत असल्यामुळे, त्याच्या नियमनासंबंधी चर्चा बहुआयामी असणे आवश्यक आहे, ज्यात कायदेशीर, नैतिक आणि तांत्रिक विचारांचा समावेश आहे.

जगभरातील सरकारे एआय (AI) प्रशासनासाठी योग्य आराखडा (framework) स्थापित करण्याच्या कार्यात गुंतलेली आहेत. हे आराखडे (frameworks) bias, गोपनीयता, सुरक्षा आणि उत्तरदायित्व यासारख्या चिंतांचे निराकरण करण्याचे उद्दिष्ट ठेवतात. तथापि, एआय (AI) विकासाचा वेग इतका जास्त आहे की नियमांना अद्ययावत आणि संबंधित ठेवणे आव्हानात्मक आहे.

शिवाय, एआय (AI) च्या जागतिक स्वरूपामुळे अतिरिक्त गुंतागुंत निर्माण होते. वेगवेगळ्या देशांमध्ये भिन्न मूल्ये आणि प्राधान्यक्रम आहेत, ज्यामुळे विरोधाभासी नियम आणि मानके निर्माण होऊ शकतात. यामुळे सीमेपलीकडे कार्यरत असलेल्या एआय (AI) कंपन्यांसाठी आव्हाने निर्माण होतात, कारण त्यांना कायदेशीर आणि नैतिक आवश्यकतांचे जाळे पार करावे लागते.

भविष्य घडवण्यात एआय (AI) विकासकांची भूमिका

एआय (AI) चे भविष्य घडवण्यात एआय (AI) विकासकांची (developer) महत्त्वाची भूमिका आहे. ते एआय (AI) सिस्टम्स (systems) डिझाइन (design) आणि तयार करतात आणि या सिस्टम्सचा (systems) नैतिक आणि जबाबदारीने वापर सुनिश्चित करण्याची जबाबदारी त्यांची आहे.

यामध्ये एआय (AI) अल्गोरिदममधील (algorithms) bias ची संभाव्यता लक्षात घेणे आणि ते कमी करण्यासाठी उपाययोजना करणे समाविष्ट आहे. यात एआय (AI) सिस्टम्स (systems) कसे कार्य करतात याबद्दल पारदर्शक असणे आणि वापरकर्त्यांना त्यांच्या निर्णयांची स्पष्ट माहिती देणे देखील समाविष्ट आहे.

शिवाय, एआय (AI) विकासकांनी (developer) एआय (AI) नियमनावरील चर्चेत सक्रियपणे सामील झाले पाहिजे. त्यांच्याकडे मौल्यवान अंतर्दृष्टी आणि कौशल्ये आहेत जी धोरणकर्त्यांना माहितीपूर्ण निर्णय घेण्यास मदत करू शकतात.

एकत्र काम करून, एआय (AI) विकासक (developer), धोरणकर्ते आणि जनता एआय (AI) चा उपयोग सर्वांसाठी एक चांगले भविष्य निर्माण करण्यासाठी केला जाईल याची खात्री करू शकतात.

निष्कर्ष

सँड एआय (Sand AI) आणि तिच्या सेन्सॉरशिप (censorship) पद्धतींची कथा एआय (AI) तंत्रज्ञानाच्या विकास आणि उपयोजनामध्ये उद्भवणाऱ्या जटिल आव्हानांची आणि नैतिक विचारांची आठवण करून देते. एआय (AI) विकसित होत असताना, त्याच्या संभाव्य फायदे आणि धोक्यांबद्दल खुले आणि प्रामाणिक चर्चा करणे आवश्यक आहे. एकत्र काम करून, आपण हे सुनिश्चित करू शकतो की एआय (AI) चा उपयोग अधिक न्याय्य, समान आणि समृद्ध जग निर्माण करण्यासाठी केला जाईल.