DeepSeek च्या R1 सारख्या अत्याधुनिक कृत्रिम बुद्धिमत्ता (AI) मॉडेल्सच्या उदयाने पाश्चिमात्य तंत्रज्ञान जगात खळबळ उडवून दिली आहे, ज्यामुळे AI विकासाच्या धोरणांवर, विशेषतः खर्च-प्रभावीता आणि अत्याधुनिक क्षमता यांच्यातील स्पर्धात्मक मागण्यांवर, आवश्यक आत्मपरीक्षण करण्यास प्रवृत्त केले आहे. तथापि, याचे परिणाम केवळ तांत्रिक मापदंड किंवा आर्थिक कार्यक्षमतेपुरते मर्यादित नाहीत. DeepSeek ने अधोरेखित केलेला मार्ग अधिक गहन आणि तातडीच्या विचारांना भाग पाडतो: विशिष्ट प्रकारच्या AI चा उदय, विशेषतः अ-लोकशाही राष्ट्रांनी पुरस्कृत केलेल्या AI चा, अल्गोरिदमद्वारे वाढत्या प्रमाणात आकार घेतलेल्या युगात लोकशाहीच्या भविष्यातील आरोग्य आणि तत्त्वांसाठी काय सूचित करतो?
या आव्हानाच्या केंद्रस्थानी ओपन-सोर्स AI ची संकल्पना आहे. याचा अर्थ अशा AI प्रणालींशी आहे जिथे मूलभूत घटक - मूळ कोडपासून ते प्रशिक्षणासाठी वापरल्या जाणार्या डेटासेटपर्यंत - सार्वजनिकरित्या उपलब्ध केले जातात. ही पारदर्शकता वापरकर्त्यांना केवळ साधने वापरण्याची परवानगी देत नाही, तर त्यांच्या अंतर्गत कार्याचा अभ्यास करण्यास, विशिष्ट हेतूंसाठी त्यात बदल करण्यास आणि त्यांचे नवकल्पना सामायिक करण्यास देखील अनुमती देते. जटिल AI मॉडेल्सच्या संदर्भात ‘ओपन सोर्स’ ची नेमकी व्याख्या अजूनही चर्चेत असली तरी, त्याची क्षमता प्रचंड आहे. हे AI विकासाचे लोकशाहीकरण करण्याचे वचन देते, एक उत्साही परिसंस्था तयार करते जिथे विकासक एकमेकांच्या कामावर सहयोग करू शकतात आणि त्यावर आधारित नवीन गोष्टी निर्माण करू शकतात. ही सहयोगी भावना व्यक्ती, संशोधक आणि समुदायांना शिक्षण, आरोग्य सेवा आणि वित्तीय सेवांसारख्या महत्त्वपूर्ण क्षेत्रांसाठी AI सोल्यूशन्स तयार करण्यास सक्षम करू शकते, ज्यामुळे संभाव्यतः महत्त्वपूर्ण नवकल्पना अनलॉक होऊ शकते आणि सर्वत्र आर्थिक प्रगतीला गती मिळू शकते.
तरीही, या आश्वासक तांत्रिक मार्गामध्ये अंगभूत गुंतागुंत आणि धोके आहेत, विशेषतः त्याच्या शासन आणि अंतर्निहित मूल्यांशी संबंधित. उदाहरणार्थ, DeepSeek R1 मॉडेलबद्दलच्या अहवालांनुसार, त्यात वापरकर्त्यांकडून माहिती सेन्सॉर किंवा निवडकपणे रोखून ठेवणारी यंत्रणा समाविष्ट असू शकते. हे एक उदाहरण मोठ्या धोक्याकडे लक्ष वेधते: लोकशाही राष्ट्रे केवळ उत्कृष्ट AI कामगिरीसाठीच्या तांत्रिक शर्यतीत मागे पडण्याचा धोका पत्करत नाहीत. त्यांना AI च्या शासनाला आकार देण्याच्या महत्त्वपूर्ण लढाईत मैदान गमावण्याचा तितकाच गंभीर धोका आहे, ज्यामुळे संभाव्यतः हुकूमशाही तत्त्वांनी युक्त प्रणाली जागतिक स्तरावर पसरू शकतात आणि अभिव्यक्ती स्वातंत्र्य आणि माहितीच्या प्रवेशासारख्या लोकशाही नियमांचे पालन करण्यासाठी डिझाइन केलेल्या प्रणालींवर मात करू शकतात.
म्हणून, सध्याचा क्षण एका सक्रिय आणि समन्वित प्रतिसादाची मागणी करतो. अमेरिकेने आपल्या लोकशाही मित्र राष्ट्रांशी, विशेषतः युरोपियन युनियन (EU) सारख्या महत्त्वाच्या सहकार्यासोबत, ओपन-सोर्स AI साठी जागतिक मानके आणि सर्वोत्तम पद्धती स्थापित करण्यासाठी मजबूत भागीदारी करणे अत्यावश्यक आहे. त्यांच्या विद्यमान कायदेशीर चौकटी आणि लक्षणीय बाजार प्रभावाचा फायदा घेऊन, या अटलांटिकपार भागीदारांनी या वाढत्या क्षेत्रासाठी एक मजबूत शासन संरचना तयार करण्यासाठी पुढाकार घ्यावा. नियामक स्पष्टता आणि प्रभावीतेची खात्री करण्यासाठी ओपन-सोर्स AI च्या कार्यात्मक व्याख्येवर अधिकृतपणे एकत्र येणे हे एक महत्त्वपूर्ण पहिले पाऊल आहे. यानंतर, लोकशाही मूल्ये - पारदर्शकता, निष्पक्षता, जबाबदारी आणि मूलभूत हक्कांचा आदर - विकसित आणि प्रचारित केल्या जाणार्या ओपन-सोर्स AI मॉडेल्समध्ये खोलवर रुजलेली आहेत याची खात्री करण्यासाठी एकत्रित प्रयत्नांना गती देण्याची आवश्यकता आहे. असा धोरणात्मक जोर एका अशा AI भविष्याचा मार्ग मोकळा करण्यासाठी आवश्यक आहे जो खऱ्या अर्थाने खुला, पारदर्शक आणि सर्वांसाठी सशक्त असेल, ऐवजी हुकूमशाही नियंत्रणाने सूक्ष्मपणे आकार घेतलेला असेल.
चीनचे ओपननेसचे विचारपूर्वक स्वीकार
सध्याची गतिशीलता समजून घेण्यासाठी AI क्षेत्रात चीनच्या धोरणात्मक हालचालींची प्रशंसा करणे आवश्यक आहे. DeepSeek च्या उल्लेखनीय यशाचा काही भाग केवळ तांत्रिक पराक्रम नाही; हे चीनी कम्युनिस्ट पार्टी (CCP) कडून वाढत्या स्पष्ट संकेतांशी जुळते, जे ओपन-सोर्स AI च्या नियम-निर्धारणाला थेट त्याच्या कायदेशीर आणि धोरणात्मक रचनेत समाकलित करण्याचा हेतू दर्शवतात. एप्रिल 2024 मध्ये मॉडेल AI कायद्याच्या मसुद्यासह एक महत्त्वपूर्ण सूचक आले. या दस्तऐवजात बीजिंगने देशांतर्गत ओपन-सोर्स AI परिसंस्था विकसित करण्यासाठी दिलेल्या समर्थनाची स्पष्टपणे मांडणी केली आहे.
या मसुदा कायद्याच्या कलम 19 मध्ये घोषित केले आहे की राज्य ‘ओपन सोर्स परिसंस्थेच्या निर्मितीला प्रोत्साहन देते’ आणि ‘संबंधित संस्थांना ओपन सोर्स प्लॅटफॉर्म, ओपन सोर्स समुदाय आणि ओपन सोर्स प्रकल्प तयार करण्यासाठी किंवा चालवण्यासाठी सक्रियपणे समर्थन देते.’ हे पुढे जाऊन कंपन्यांना ‘सॉफ्टवेअर सोर्स कोड, हार्डवेअर डिझाइन आणि ऍप्लिकेशन सेवा सार्वजनिकरित्या उपलब्ध’ करण्यास प्रोत्साहित करते, ज्यामुळे उद्योग-व्यापी सामायिकरण आणि सहयोगी नवकल्पना वाढेल. कदाचित सर्वात महत्त्वाचे म्हणजे, मसुदा सूचित करतो की ‘राष्ट्रीय मानकां’ नुसार शासन प्रणाली स्थापित केल्यास आणि ‘संबंधित सुरक्षा उपाय’ लागू केल्यास ओपन-सोर्स AI मॉडेल्स प्रदान करणार्या संस्थांसाठी कायदेशीर दायित्व कमी केले जाईल किंवा काढून टाकले जाईल. हे चीनमधील पूर्वीच्या AI-संबंधित कायद्यांमधील संभाव्य महत्त्वपूर्ण बदलाचे प्रतिनिधित्व करते, ज्यात अनेकदा वापरकर्त्यांच्या हक्कांच्या संरक्षणावर अधिक स्पष्टपणे जोर दिला जात असे. जरी अजूनही मसुदा असला तरी, मॉडेल AI कायद्यातील विशिष्ट तरतुदी एक मौल्यवान ब्लू प्रिंट देतात, ज्यामुळे चीन देशांतर्गत ओपन-सोर्स AI कसे तैनात करण्याची कल्पना करतो आणि महत्त्वाचे म्हणजे, त्याच्या निर्यात केलेल्या AI मॉडेल्समध्ये कोणती वैशिष्ट्ये असू शकतात हे उघड होते.
या धोरणात्मक दिशेला आणखी बळकटी देणारी AI सुरक्षा शासन फ्रेमवर्क आहे, हा एक दस्तऐवज आहे ज्याचा चीन आंतरराष्ट्रीय स्तरावर ‘जागतिक स्तरावर AI सुरक्षा शासनावर आंतरराष्ट्रीय सहकार्याला प्रोत्साहन देण्यासाठी’ वापर करू इच्छितो. ही फ्रेमवर्क ओपन-सोर्स AI बाबत राष्ट्राच्या वाढत्या दृढतेचे प्रतिध्वनी करते. चीनच्या सायबरसुरक्षावरील राष्ट्रीय तांत्रिक समिती 260 ने तयार केलेली - ही संस्था शक्तिशाली सायबरस्पेस ऍडमिनिस्ट्रेशन ऑफ चायनाशी जवळून जोडलेली आहे, ज्याच्या सायबरसुरक्षा मार्गदर्शक तत्त्वांना सप्टेंबर 2024 मध्ये CCP ने औपचारिकरित्या स्वीकारले होते - फ्रेमवर्क निःसंदिग्धपणे सांगते: ‘आपण AI मध्ये ज्ञान सामायिक करण्यास प्रोत्साहन दिले पाहिजे, AI तंत्रज्ञान ओपन-सोर्स अटींनुसार जनतेला उपलब्ध करून दिले पाहिजे आणि संयुक्तपणे AI चिप्स, फ्रेमवर्क आणि सॉफ्टवेअर विकसित केले पाहिजे.’ जागतिक प्रेक्षकांसाठी असलेल्या दस्तऐवजात अशा मजबूत विधानाचा समावेश स्पष्टपणे चीनची केवळ ओपन-सोर्स AI चळवळीत सहभागी होण्याचीच नव्हे, तर या महत्त्वपूर्ण तांत्रिक क्षेत्रात स्वतःला एक अग्रगण्य समर्थक आणि मानक-निर्धारक म्हणून स्थापित करण्याची महत्त्वाकांक्षा दर्शवते. तथापि, ‘ओपननेस’ चा हा विचारपूर्वक स्वीकार, एका विशिष्ट नियंत्रित वातावरणात कार्य करतो, ज्याचा उद्देश राज्य उद्दिष्टांशी संरेखन राखताना ओपन सोर्सच्या नाविन्यपूर्ण शक्तीचा उपयोग करणे आहे.
अमेरिकेचा संकोच: दिशानिर्देशाऐवजी संरक्षण
पॅसिफिकच्या पलीकडे, अमेरिकेतील ओपन-सोर्स AI बद्दलचे कथन विरोधाभासांचा अभ्यास सादर करते. काही काळापासून, टेक उद्योग आणि शिक्षण क्षेत्रातील समर्थक ओपन-सोर्स दृष्टिकोनांच्या महत्त्वपूर्ण फायद्यांचे समर्थन करत आहेत. प्रमुख उद्योग व्यक्तींनी सार्वजनिकरित्या अमेरिकन सरकारला ओपन-सोर्स AI विकासाला चालना देण्यासाठी अधिक धोरणात्मक भर देण्याचे आवाहन केले आहे. Mark Zuckerberg ने ओपन-सोर्स मॉडेल Llama 3.1 लाँच करणे हे एक उल्लेखनीय उदाहरण आहे, ज्यासोबत त्याने दावा केला की ओपन सोर्स ‘सर्वांसाठी व्यापक आर्थिक संधी आणि सुरक्षा निर्माण करण्यासाठी जगातील सर्वोत्तम संधी’ दर्शवते.
प्रभावशाली वर्तुळांकडून या जोरदार समर्थनानंतरही, अमेरिका ओपन-सोर्स AI च्या विकासाला प्रोत्साहन देण्यासाठी किंवा मार्गदर्शन करण्यासाठी विशेषतः डिझाइन केलेली कोणतीही महत्त्वपूर्ण कायदेशीर चौकट स्थापित करण्यात स्पष्टपणे अयशस्वी ठरली आहे. जरी एका US सिनेटरने 2023 मध्ये ओपन-सोर्स सॉफ्टवेअर सुरक्षेसाठी एक चौकट तयार करण्याच्या उद्देशाने एक विधेयक सादर केले असले तरी, हे कायदे महत्त्वपूर्ण प्रगतीशिवाय रखडले आहे. फेडरल एजन्सींनी या समस्येला स्पर्श केला आहे, परंतु अनेकदा सावध किंवा प्रतिक्रियात्मक भूमिकेतून. गेल्या वर्षी, नॅशनल टेलिकम्युनिकेशन्स अँड इन्फॉर्मेशन ऍडमिनिस्ट्रेशन (NTIA) ने ‘ओपन वेट्स’ असलेल्या ड्युअल-यूज AI फाउंडेशन मॉडेल्सची तपासणी करणारा अहवाल प्रकाशित केला. हे लक्षात घेणे महत्त्वाचे आहे की ‘ओपन वेट्स’ सामान्यतः सूचित करते की मॉडेलचे पॅरामीटर्स वापरासाठी उपलब्ध आहेत, परंतु ते खऱ्या अर्थाने ओपन सोर्स (ज्यात अनेकदा प्रशिक्षण डेटा आणि कोडमध्ये प्रवेश समाविष्ट असतो) साठीचे पूर्ण निकष पूर्ण करत नाही. NTIA अहवालाने सरकारला योग्य निर्बंध निश्चित करण्यासाठी या ओपन-वेट मॉडेल्सशी संबंधित संभाव्य जोखमींचे निरीक्षण तीव्र करण्याचा सल्ला दिला. त्यानंतर, Biden प्रशासनाच्या अंतिम AI नियामक चौकटीने ओपन मॉडेल्सकडे काहीशी अधिक उदार भूमिका स्वीकारली, सर्वात शक्तिशाली क्लोज्ड-वेट मॉडेल्ससाठी कठोर आवश्यकता निश्चित केल्या, तर ओपन-वेट मॉडेल्सना या विशिष्ट निर्बंधांमधून मोठ्या प्रमाणात वगळले.
तरीसुद्धा, लोकशाही ओपन-सोर्स AI ला प्रोत्साहन देण्यासाठी एक स्पष्ट, सक्रिय राष्ट्रीय धोरण अजूनही अस्पष्ट आहे. संभाव्य नेतृत्वातील बदलांनुसार भविष्यातील दिशा अनिश्चिततेचा आणखी एक स्तर जोडते. माजी राष्ट्राध्यक्ष Donald Trump यांनी ओपन-सोर्स AI बाबत कोणतेही विशिष्ट धोरण किंवा मार्गदर्शन स्पष्ट केलेले नाही. जरी त्यांनी राष्ट्राध्यक्ष Biden यांचा सुरुवातीचा AI कार्यकारी आदेश रद्द केला असला तरी, जारी केलेल्या बदली आदेशात ओपन-सोर्स AI च्या विकासाला चालना देण्यासाठी किंवा दिशा देण्यासाठी समर्पित कोणत्याही ठोस उपक्रमांची रूपरेषा दिली नव्हती.
एकंदरीत, अमेरिकेचा दृष्टिकोन प्रामुख्याने बचावात्मक दिसतो. मुख्य लक्ष अत्यंत सक्षम, अनेकदा मालकीच्या, AI मॉडेल्स विकसित करण्यावर आणि त्याच वेळी शत्रूंना, विशेषतः चीनला, प्रगत सेमीकंडक्टर तंत्रज्ञान आणि AI क्षमतांमध्ये प्रवेश करण्यापासून रोखण्यासाठी महत्त्वपूर्ण प्रयत्न करण्यावर केंद्रित असल्याचे दिसते. ही बचावात्मक भूमिका, राष्ट्रीय सुरक्षेच्या दृष्टिकोनातून समजण्यासारखी असली तरी, महत्त्वपूर्ण आक्रमक धोरणाकडे दुर्लक्ष करण्याचा धोका पत्करते: लोकशाही तत्त्वांमध्ये रुजलेल्या ओपन-सोर्स AI च्या जागतिक परिसंस्थेचे सक्रियपणे संवर्धन आणि प्रचार करणे. अमेरिका आपल्या तांत्रिक किल्ल्यांचे रक्षण करण्यात व्यस्त असल्याचे दिसते, संभाव्यतः खुल्या, हक्कांचा आदर करणाऱ्या AI पर्यायांच्या सक्रिय प्रसाराद्वारे व्यापक जागतिक परिदृश्य घडवण्याची संधी गमावत आहे.
युरोपचा नियामक विरोधाभास: शक्ती आणि लकवा
युरोपियन युनियन (EU), डिजिटल क्षेत्रात आपल्या ठाम नियामक भूमिकेसाठी प्रसिद्ध आहे, ओपन-सोर्स AI बाबत वेगळ्या प्रकारचे आव्हान सादर करते. जनरल डेटा प्रोटेक्शन रेग्युलेशन (GDPR) च्या महत्त्वपूर्ण अंमलबजावणीपासून, EU ने डिजिटल अर्थव्यवस्थेसाठी जागतिक मानक-निर्धारक म्हणून स्वतःला यशस्वीरित्या स्थापित केले आहे. जगभरातील देश आणि बहुराष्ट्रीय कंपन्या वारंवार त्यांच्या पद्धती EU अनुपालन चौकटींशी जुळवून घेतात, हा ट्रेंड व्यापक EU AI कायद्याच्या आगमनाने कृत्रिम बुद्धिमत्तेच्या क्षेत्रात विस्तारत आहे. या कायद्याचा उद्देश संपूर्ण युनियनमध्ये AI प्रणालींसाठी जोखीम-आधारित नियम स्थापित करणे आहे.
तथापि, जेव्हा विशेषतः ओपन-सोर्स AI ला संबोधित करण्याचा प्रश्न येतो, तेव्हा EU ची प्रचंड नियामक यंत्रणा आश्चर्यकारकपणे संकोचलेली दिसते आणि तिचे प्रयत्न काहीसे अविकसित आहेत. AI कायद्याच्या कलम 2 मध्ये एक संक्षिप्त उल्लेख आहे, जो ओपन-सोर्स AI मॉडेल्ससाठी नियमनातून काही सूट देतो. तरीही, या सवलतीचा व्यावहारिक परिणाम मर्यादित दिसतो, विशेषतः कारण ती सामान्यतः व्यावसायिक हेतूंसाठी तैनात केलेल्या मॉडेल्सना लागू होत नाही. ही संकुचित व्याप्ती वाढत्या ओपन-सोर्स AI परिदृश्यावर तिचा वास्तविक-जगातील प्रभाव लक्षणीयरीत्या कमी करते.
ही विरोधाभासी परिस्थिती - ओपन सोर्सला मान्यता देणे पण त्याला सक्रियपणे प्रोत्साहन देण्यात अयशस्वी होणे - इतर EU मार्गदर्शन दस्तऐवजांमध्येही टिकून आहे. सर्वात अलीकडील जनरल-पर्पज AI कोड ऑफ प्रॅक्टिस, या चर्चेसाठी काल्पनिकरित्या मार्च 2025 मध्ये प्रकाशित झालेला, सुरक्षित, मानवकेंद्रित आणि विश्वासार्ह AI विकसित करण्यासाठी ओपन-सोर्स मॉडेल्सच्या सकारात्मक योगदानाला मान्यता देऊ शकतो. तथापि, अशा दस्तऐवजांमध्ये अनेकदा अर्थपूर्ण विस्ताराचा किंवा या संभाव्य फायदेशीर ओपन-सोर्स AI मॉडेल्सच्या विकासाला आणि व्यापक दत्तक घेण्याला सक्रियपणे प्रोत्साहन देण्यासाठी डिझाइन केलेल्या ठोस उपायांचा अभाव असतो. EU कॉम्पिटिटिव्हनेस कंपास सारख्या धोरणात्मक चौकटींमध्ये देखील - जे वरवर पाहता अति-नियमनावर मात करण्यासाठी आणि AI सारख्या महत्त्वाच्या क्षेत्रांमध्ये धोरणात्मक स्पर्धात्मकता वाढवण्यासाठी डिझाइन केलेले आहे - ‘ओपन सोर्स’ हा शब्द स्पष्टपणे अनुपस्थित आहे किंवा त्याला किमान लक्ष दिले जाते.
ब्रसेल्सकडून ओपन-सोर्स AI ला पूर्णपणे स्वीकारण्या आणि त्याचे नियमन करण्याबाबतचा हा सावध, जवळजवळ मितभाषी दृष्टिकोन अनेक घटकांमुळे संभवतो. एक महत्त्वपूर्ण अडथळा म्हणजे ओपन-सोर्स AI ची नेमकी व्याख्या करण्यात असलेली अंगभूत अडचण. पारंपारिक ओपन-सोर्स सॉफ्टवेअरच्या विपरीत, ज्यात प्रामुख्याने सोर्स कोडचा समावेश असतो, ओपन-सोर्स AI मध्ये जटिल पूर्व-प्रशिक्षित मॉडेल्स, प्रचंड डेटासेट आणि गुंतागुंतीच्या आर्किटेक्चर्सचा समावेश होतो. ओपन सोर्स इनिशिएटिव्ह (OSI) सारख्या संस्थांच्या प्रयत्नांनंतरही, सार्वत्रिकरित्या स्वीकारलेल्या कायदेशीर व्याख्येचा अभाव कायदेशीर अनिश्चिततेची पातळी निर्माण करतो, ज्याबद्दल युरोपियन कमिशनसारख्या नियामक संस्था सामान्यतः अस्वस्थ असतात.
तरीही, या सापेक्ष निष्क्रियतेचा मूळ चालक अधिक खोल असू शकतो. GDPR सारख्या दूरगामी नियामक राजवटी स्थापित करण्यात EU चे यशच कमिशनला AI सारख्या शक्तिशाली आणि वेगाने विकसित होणाऱ्या तंत्रज्ञानासाठी व्यापक सूट निर्माण करण्यापासून सावध करू शकते, विशेषतः जेव्हा त्याचे ओपन-सोर्स प्रकार काहीसे अस्पष्ट राहते. अशी भीती असू शकते की पूर्णपणे स्थापित सुरक्षा उपायांशिवाय ओपन-सोर्स AI ला खूप सहजपणे स्वीकारल्यास, EU चा कष्टाने मिळवलेला जागतिक नियामक प्रभाव अनवधानाने कमकुवत होऊ शकतो. हे एक धोरणात्मक जुगार आहे - संभाव्यतः अधिक गतिमान, जरी कमी अंदाजे, खुल्या नवोपक्रम परिसंस्थेला चालना देण्याऐवजी व्यापक नियंत्रणाला प्राधान्य देणे - एक जुगार जो ब्रसेल्सने आतापर्यंत निर्णायकपणे घेण्यास फारसा उत्साह दाखवलेला नाही. हा नियामक लकवा एक पोकळी निर्माण करतो जी इतर सहजपणे भरून काढत आहेत.
AI चे बदलणारे भू-राजकीय परिदृश्य
चीनचा ओपन-सोर्स AI मध्ये धोरणात्मक दबाव आणि अमेरिका व युरोपियन युनियनचा सापेक्ष संकोच यांचा संगम कृत्रिम बुद्धिमत्तेच्या भू-राजकीय क्षेत्राला सक्रियपणे आकार देत आहे. चीनचा तंत्रज्ञानातील स्वयंपूर्णतेकडे दृढनिश्चयी प्रवास, एक मोहीम ज्यात आता ओपन-सोर्स AI भोवतीची आपली रणनीती मजबूत करणे स्पष्टपणे समाविष्ट आहे, हे अमेरिकेच्या प्रगत संगणकीय हार्डवेअर आणि सेमीकंडक्टर्सना लक्ष्य करणाऱ्या निर्यात नियंत्रणांना दिलेला प्रतिसाद म्हणून अंशतः समजले जाऊ शकते. ही नियंत्रणे अमेरिकेने राष्ट्रीय सुरक्षा, आर्थिक स्पर्धात्मकता आणि अनेक वर्षांपासूनच्या बौद्धिक संपदा संरक्षणाच्या चिंतांमुळे लागू केली होती. चीनचे प्रति-उपाय, ज्यात ओपन सोर्सचा स्वीकार समाविष्ट आहे, दोन जागतिक शक्तींमधील तंत्रज्ञानाच्या वर्चस्वासाठीची व्यापक, तीव्र होत चाललेली धोरणात्मक स्पर्धा दर्शवतात. EU, दरम्यान, या शर्यतीत आपला प्रभाव सामान्यतः त्याच प्रमाणात थेट तांत्रिक स्पर्धेद्वारे नव्हे, तर मूलभूत हक्क, गोपनीयता आणि निष्पक्षता व अल्गोरिथमिक जबाबदारीसारख्या लोकशाही मूल्यांचे संरक्षण करण्यावर केंद्रित जागतिक नियम स्थापित करून दर्शवते - मानके ज्यांनी खरोखरच प्रमुख जागतिक तंत्रज्ञान कंपन्यांच्या धोरणांना आकार दिला आहे.
तथापि, ओपन-सोर्स AI साठी स्वतःला आक्रमकपणे एक नेता आणि समर्थक म्हणून स्थान देऊन, चीन हुशारीने एका आव्हानाला - विशिष्ट पाश्चात्य तंत्रज्ञानावर प्रतिबंधित प्रवेश - एका धोरणात्मक संधीत बदलत आहे. ते प्रभावीपणे AI ओपननेसची स्वतःची वेगळी आवृत्ती तयार करत आहे आणि जागतिक समुदायाला, विशेषतः सुलभ AI साधने शोधणाऱ्या विकसनशील राष्ट्रांना, विकत आहे. DeepSeek च्या R1 सारख्या सक्षम चीनी मॉडेल्सचा उदय, Alibaba सारख्या इतर देशांतर्गत टेक दिग्गजांच्या ऑफरसह, जागतिक गतिशीलतेत बदल घडवू लागला आहे. हे संभाव्यतः केवळ बंद, मालकीच्या AI मॉडेल्ससाठीची जागतिक भूक कमी करते, विशेषतः जर खुले पर्याय अधिक सुलभ किंवा खर्च-प्रभावी वाटत असतील. उदाहरणार्थ, DeepSeek ने मर्यादित प्रक्रिया शक्ती असलेल्या उपकरणांसाठी योग्य असलेले लहान, कमी संगणकीय मागणी असलेले मॉडेल्स जारी केले आहेत. Hugging Face सारखे प्लॅटफॉर्म, जे AI विकासाचे प्रमुख केंद्र आहे, त्यांनी कथितरित्या स्वतःचे मॉडेल्स सुधारण्यासाठी DeepSeek-R1 च्या प्रशिक्षण पद्धतींच्या पैलूंचे विश्लेषण आणि प्रतिकृती बनवण्यास सुरुवात केली आहे. Microsoft, OpenAI आणि Meta सारखे पाश्चात्य टेक दिग्गज देखील मॉडेल डिस्टिलेशनसारख्या तंत्रांचा वाढत्या प्रमाणात शोध घेत आहेत, ज्याला अंशतः DeepSeek च्या घडामोडींमुळे महत्त्व प्राप्त झाले.
हे विकसित होणारे परिदृश्य चीनला AI ओपननेसभोवतीच्या जागतिक संभाषणाला सक्रियपणे पुढे नेत असल्याचे उघड करते, अमेरिकेला प्रथमच या चर्चेवर प्रतिक्रिया देण्यास आणि जुळवून घेण्यास भाग पाडते. त्याच वेळी, EU ओपन सोर्सबाबत कायदेशीर आणि नियामक जडत्वात काहीशी अडकलेली आहे. ही विषमता विशेषतः ओपन-सोर्स AI शासन आणि प्रसाराच्या महत्त्वपूर्ण क्षेत्रात एक लक्षणीय शक्ती असमतोल निर्माण करते.
महत्त्वाचे म्हणजे, चीनद्वारे प्रसारित होत असलेल्या ओपन-सोर्स AI च्या आवृत्तीमध्ये लोकशाही समाजांसाठी महत्त्वपूर्ण चिंता आहेत. CCP धोरणात्मकदृष्ट्या ‘टू-ट्रॅक’ प्रणाली लागू करत असल्याचे दिसते: नवकल्पनांना चालना देण्यासाठी AI विकासक आणि कंपन्यांमध्ये सापेक्ष मोकळेपणा आणि सहकार्याला प्रोत्साहन देणे, त्याच वेळी माहितीचा प्रवाह आणि अभिव्यक्ती स्वातंत्र्यावर निर्बंध घालण्यासाठी सार्वजनिक-मुखी मॉडेल्समध्ये नियंत्रणे आणि मर्यादा अंतर्भूत करणे. ही ‘ओपननेस’ चीनच्या तंत्रज्ञानावरील नियंत्रणाच्या प्रस्थापित पद्धतींनी मोठ्या प्रमाणात सशर्त आहे, अनेकदा मॉडेल इनपुट आणि आउटपुट राज्य-मान्य कथा, CCP मूल्ये आणि सकारात्मक राष्ट्रीय प्रतिमा यांच्याशी जुळणे आवश्यक असते. त्याच्या जागतिक स्तरावर केंद्रित AI सुरक्षा शासन फ्रेमवर्कमध्ये देखील, जिथे चीनी अधिकारी उघडपणे ओपन-सोर्स तत्त्वे स्वीकारतात, तिथे AI-व्युत्पन्न सामग्री ‘वैचारिक सुरक्षे’ला धोका निर्माण करत असल्याबद्दल सूचक भाषा आहे - विचार आणि भाषण स्वातंत्र्यावरील CCP च्या अंगभूत मर्यादांचा स्पष्ट संकेत.
लोकशाही तत्त्वे आणि मूलभूत मानवी हक्कांच्या संरक्षणावर आधारित मजबूत, पर्यायी चौकटीशिवाय, जग चीनच्या ओपन-सोर्स AI च्या अधिक प्रतिबंधात्मक व्याख्येचे व्यापक पुनरुत्पादन आणि अवलंबन पाहण्याचा धोका पत्करतो. हुकूमशाही राजवटी आणि संभाव्यतः अगदी गैर-राज्य अभिनेते जागतिक स्तरावर या मॉडेल्सवर सहजपणे आधारित गोष्टी निर्माण करू शकतात, ज्यामुळे अत्याधुनिक सेन्सॉरशिप आणि पाळत ठेवणे शक्य होईल, त्याच वेळी ते केवळ तांत्रिक सुलभतेला प्रोत्साहन देत असल्याचा दिशाभूल करणारा दावा करतील. त्यामुळे केवळ चीनच्या तांत्रिक कामगिरीशी जुळण्यावर लक्ष केंद्रित करणे अपुरे आहे. लोकशाही राष्ट्रांनी ओपन-सोर्स AI युगासाठी लोकशाही शासन स्थापित करण्यात आणि त्याला प्रोत्साहन देण्यात पुढाकार घेऊन धोरणात्मक प्रतिसाद दिला पाहिजे.
अटलांटिकपार मार्ग तयार करणे
सध्याचा मार्ग जगातील आघाडीच्या लोकशाही राष्ट्रांमध्ये निर्णायक कृती आणि नूतनीकृत सहकार्याची मागणी करतो. अमेरिका आणि युरोपियन युनियनने ओपन-सोर्स डिप्लोमसी ची रणनीती सुरू करण्याचा गंभीरपणे विचार केला पाहिजे. यात हुकूमशाही पर्यायांना प्रतिशह म्हणून जगभरात सक्षम, विश्वासार्ह आणि हक्कांचा आदर करणाऱ्या AI मॉडेल्सचा विकास आणि सामायिकरण सक्रियपणे पुढे नेणे समाविष्ट आहे. या प्रयत्नांच्या केंद्रस्थानी US आणि EU ने संयुक्तपणे विकसित केलेली ओपन-सोर्स AI साठी एकत्रित शासन चौकट तयार करणे आहे.
लोकशाही AI भविष्य प्रभावीपणे घडवण्यासाठी, ओपन-सोर्स AI वरील समर्पित अटलांटिकपार कार्य गट स्थापन करणे हे एक महत्त्वपूर्ण पुढील पाऊल आहे. या गटाने योग्य असेल तिथे विद्यमान संरचनांचा, जसे की ग्लोबल पार्टनरशिप ऑन आर्टिफिशियल इंटेलिजन्स (GPAI), फायदा घ्यावा, परंतु महत्त्वाचे म्हणजे, फ्रेमवर्क विकास प्रक्रियेदरम्यान अटलांटिकच्या दोन्ही बाजूंच्या आघाडीच्या तंत्रज्ञान कंपन्या, शैक्षणिक संशोधक आणि नागरी समाज तज्ञांचा सक्रिय सहभाग आणि इनपुट सुनिश्चित करणे आवश्यक आहे. तत्त्वनिष्ठ आणि व्यावहारिक दोन्ही मानके तयार करण्यासाठी हा समावेशक दृष्टिकोन महत्त्वाचा आहे.
दुसरे म्हणजे, अमेरिका आणि EU दोघांनाही या दृष्टीमागे ठोस संसाधने उभी करण्याची आवश्यकता आहे. याचा अर्थ शैक्षणिक संस्था, संशोधन प्रयोगशाळा आणि नाविन्यपूर्ण स्टार्टअप्सना विशेषतः लोकशाही मूल्यांशी स्पष्टपणे जुळणारे ओपन-सोर्स AI मॉडेल्स विकसित करण्यावर लक्ष केंद्रित करण्यासाठी धोरणात्मक निधी निर्देशित करणे. अशा मॉडेल्सची प्रमुख वैशिष्ट्ये असतील:
- डिझाइन आणि प्रशिक्षण डेटामध्ये पारदर्शकता.
- सेन्सॉरशिप आणि फेरफार विरुद्ध मजबूत सुरक्षा उपाय.
- जबाबदारी आणि पक्षपात कमी करण्यासाठी यंत्रणा.
- गोपनीयता आणि मूलभूत हक्कांसाठी अंगभूत आदर.
या लोकशाही मॉडेल्सना प्रोत्साहन देण्यासाठी वॉशिंग्टन आणि ब्रसेल्समधील धोरणकर्त्यांकडून स्पष्ट मान्यता आवश्यक आहे की या तत्त्वांवर आधारित जागतिक परिसंस्था वाढवण्याचे दीर्घकालीन धोरणात्मक फायदे ओपननेसशी संबंधित अल्पकालीन जोखमींपेक्षा लक्षणीयरीत्या जास्त आहेत. त्याचबरोबर, EU ने या विशिष्ट क्षेत्रात आपल्या प्रस्थापित नियामक पराक्रमाचा अधिक निर्णायकपणे उपयोग करणे आवश्यक आहे. उच्च मानकांसाठी आपली वचनबद्धता कायम ठेवताना, ब्रसेल्सला ओपन-सोर्स AI च्या कायदेशीर व्याख्येबद्दलचा आपला संकोच दूर करण्याची आणि जागतिक नियम घडवण्यात चीनच्या वाढत्या गतीला प्रतिकार करण्यासाठी स्पष्ट मार्गदर्शक तत्त्वे आणि प्रोत्साहन स्थापित करण्यासाठी अधिक वेगाने कार्य करण्याची आवश्यकता आहे. पुढील मैदान गमावणे टाळण्यासाठी व्यवस्थापित अनिश्चिततेची काही प्रमाणात स्वीकृती आवश्यक असू शकते.
जरी अटलांटिकपार संबंध विविध आघाड्यांवर वेळोवेळी अशांततेचा सामना करू शकत असले तरी, ओपन-सोर्स AI मध्ये चीनच्या वाढत्या वर्चस्वामुळे निर्माण झालेले आव्हान या क्षेत्रात स्पर्धेऐवजी US-EU सहकार्याची नितांत गरज अधोरेखित करते. या महत्त्वपूर्ण तांत्रिक क्षेत्रात नेतृत्व पुन्हा मिळवण्यासाठी एका एकत्रित, दूरदर्शी अटलांटिकपार उपक्रमाची आवश्यकता आहे. या उपक्रमाने सक्रिय धोरण विकास, लक्ष्यित संशोधन निधी आणि नवोपक्रमासाठी समर्थन एकत्रित केले पाहिजे, जे सर्व जगभरातील लोकांसाठी खऱ्या अर्थाने हक्कांचा आदर करणारे, पारदर्शक, सर्जनशील आणि सशक्त AI भविष्य घडवण्यासाठी जागतिक मानक स्थापित करण्याच्या उद्देशाने असतील. संकोचपूर्ण निरीक्षणाची वेळ संपली आहे; निर्णायक, एकत्रित कृतीची वेळ आता आली आहे.