चीन की आर्टिफिशियल इंटेलिजेंस में हालिया प्रगति, खासकर DeepSeek-R1 के लॉन्च के साथ, ने वैश्विक ध्यान आकर्षित किया है। लेकिन ताइवान एक अलग रास्ता अपना रहा है, जो भाषा मॉडल के विकास को प्राथमिकता देता है जो अपनी अनूठी सांस्कृतिक पहचान और लोकतांत्रिक मूल्यों को दर्शाता है। इस प्रयास का उद्देश्य उन एआई सिस्टमों के लिए एक जवाबी कार्रवाई करना है जो सत्तावादी शासन से प्रभावित हैं।
DeepSeek चुनौती
जनवरी में DeepSeek-R1 के अनावरण ने तकनीकी समुदाय के भीतर काफी रुचि पैदा की। पहले के चीनी भाषा मॉडल, जैसे Baidu के Ernie और ByteDance के Doubao, ने चीनी भाषा अनुप्रयोगों, गणित और कोडिंग में वादा दिखाया, लेकिन कमजोर अंग्रेजी दक्षता और प्रतिबंधित पहुंच से सीमित थे। DeepSeek-R1, हालांकि, एक महत्वपूर्ण मील का पत्थर था क्योंकि यह पहला चीनी LLM था जिसने अंतरराष्ट्रीय मान्यता प्राप्त की।
DeepSeek-R1 के सबसे आकर्षक पहलुओं में से एक इसकी कथित तौर पर कम विकास लागत थी। OpenAI के GPT-4o के विपरीत, जिसे प्रशिक्षित करने में कथित तौर पर 100 मिलियन अमेरिकी डॉलर से अधिक खर्च हुए, DeepSeek के शोधकर्ताओं ने दावा किया कि उनके चैटबॉट को केवल 5.6 मिलियन अमेरिकी डॉलर में विकसित किया गया था। दक्षता की कहानी को और बढ़ावा देते हुए, DeepSeek के इंजीनियरों ने R1 मॉडल को Nvidia H800 जैसे मिड-रेंज CPU का उपयोग करके प्रशिक्षित किया, न कि GPT-4o या Anthropic के Claude जैसे मॉडल में उपयोग किए जाने वाले टॉप-टीयर चिप्स का। संयुक्त राज्य अमेरिका द्वारा चीन को उच्च-प्रदर्शन चिप्स के निर्यात पर प्रतिबंध के बावजूद, DeepSeek-R1 केवल 256 सर्वरों में फैले 2,048 प्रोसेसर का उपयोग करके अन्य प्रमुख बॉट से बेहतर प्रदर्शन करने में कामयाब रहा।
यह उल्लेखनीय दक्षता और कम विकास लागत काफी हद तक परिष्कृत प्रोग्रामिंग तकनीकों के लिए जिम्मेदार थी, जिसमें PTX भी शामिल है, जो एक असेंबली जैसी भाषा है जो डेवलपर्स को प्रदर्शन को ठीक करने और हार्डवेयर उपयोग को अधिकतम करने में सक्षम बनाती है।
रिलीज़ होने के तुरंत बाद, DeepSeek-R1 ऐप अमेरिकी Apple ऐप स्टोर की मुफ्त डाउनलोड रैंकिंग में सबसे ऊपर पहुंच गया, जिसने ChatGPT, TikTok और Meta के सोशल मीडिया प्लेटफॉर्म को भी पीछे छोड़ दिया। Nasdaq में गिरावट आई, और DeepSeek-R1 की शुरुआत के बाद Nvidia के शेयरों में गिरावट आई।
DeepSeek के दावों पर सवाल
प्रारंभिक उत्साह के बावजूद, कई पर्यवेक्षकों ने DeepSeek के अपने LLM के बारे में दावों की वैधता पर सवाल उठाए हैं। विश्लेषकों ने सुझाव दिया है कि बताए गए आंकड़े संभवतः केवल कम्प्यूटेशनल लागतों के लिए ही हैं, जबकि बुनियादी ढांचे, हार्डवेयर और मानव संसाधन व्यय को बाहर या कम करके आंका गया है।
ताइपे स्थित जेनरेटिव एआई और क्लाउड गेमिंग सेवा प्रदाता Ubitus के संस्थापक और CEO वेस्ले कुओ ने इन चिंताओं को दोहराया, यह कहते हुए कि वास्तविक लागत रिपोर्ट की जा रही लागत से बहुत अधिक होने की संभावना है। Nvidia के समर्थन से Ubitus ने प्रोजेक्ट TAME का समर्थन किया, जो पारंपरिक चीनी अक्षरों का उपयोग करके एक स्थानीयकृत LLM है। उन्होंने H100 CPU और गेमिंग डेटा प्रदान किया। Ubitus ने Foxlink और Shinfox Energy के साथ मिलकर Ubilink.AI की स्थापना भी की, जो Asus के सहयोग से ताइवान का सबसे बड़ा ग्रीन एनर्जी-संचालित AI सुपरकंप्यूटिंग सेवा केंद्र बना रहा है।
कुओ सरकारों के लिए LLM अनुप्रयोगों और मॉडल विकसित करने में कंपनी की भागीदारी पर जोर देते हैं, जिसमें गेमिंग, पर्यटन और खुदरा जैसे क्षेत्रों में जापानी सरकार भी शामिल है, जो श्रम की कमी और उम्र बढ़ने वाली आबादी को संबोधित करने के लिए AI की क्षमता को उजागर करते हैं।
डेटा अखंडता संबंधी चिंताएं
कुओ OpenAI और Microsoft के साथ मिलकर सुझाव देते हैं कि DeepSeek ने मॉडल डिस्टिलेशन के माध्यम से डेटा प्राप्त किया होगा। इस प्रक्रिया में छोटे भाषा मॉडल को बड़े मॉडल के आउटपुट की नकल करने के लिए प्रशिक्षित करना शामिल है। OpenAI और Microsoft का आरोप है कि DeepSeek ने अपने विकास को सुविधाजनक बनाने के लिए OpenAI के एप्लिकेशन प्रोग्रामिंग इंटरफेस का उपयोग किया।
कुओ का दावा है कि DeepSeek ने OpenAI से डेटा प्राप्त किया और कंपनी के दक्षता के बारे में दावों के बारे में गलतफहमी है। उन्होंने बताया कि DeepSeek-R1, अपने 670 बिलियन मापदंडों के साथ, Meta AI के Llama 3.1 405B से काफी बड़ा है। पैरामीटर आंतरिक संख्यात्मक मान हैं जो एक मॉडल भविष्यवाणियां करने के लिए प्रशिक्षण के दौरान सीखता है। कुओ यह भी सुझाव देते हैं कि DeepSeek के मॉडल को Llama 3.1 से डिस्टिल किया गया होगा।
इन खंडनों के अलावा, DeepSeek-R1 की क्षमताओं के बारे में भी चिंताएं सामने आई हैं। विशेषज्ञों का सुझाव है कि, अपने पूर्ववर्तियों की तरह, R1 विशेष, कार्य-विशिष्ट कार्यों में उत्कृष्टता प्राप्त करता है लेकिन सामान्य-उद्देश्य प्रदर्शन में GPT-4o के संस्करणों से पीछे है।
DeepSeek के मॉडल की एक प्रमुख सीमा सूचना तक मुफ्त पहुंच पर प्रतिबंध है। उपयोगकर्ताओं ने पाया कि संवेदनशील राजनीतिक विषयों के बारे में पूछताछ को टालमटोल जवाबों से मिला। झिंजियांग के उइगर अल्पसंख्यक और ताइवान जैसे विषयों पर, DeepSeek की प्रतिक्रियाएं आधिकारिक चीनी कम्युनिस्ट पार्टी की स्थिति को दर्शाती हैं। शोध से पता चलता है कि DeepSeek के आउटपुट का एक महत्वपूर्ण हिस्सा लोकतंत्र, मानवाधिकार और चीन के विवादित संप्रभुता दावों से संबंधित जानकारी को दबाने के लिए सेंसर किया गया है।
ताइवान का विकल्प: TAIDE और उससे आगे
जवाब में, ताइवान द्वारा विकसित LLM, जैसे TAME, सिनोस्फीयर के भीतर DeepSeek के विकल्प के रूप में उभरे हैं। राष्ट्रीय अनुप्रयुक्त अनुसंधान संस्थान द्वारा जून 2023 में लॉन्च किए गए ट्रस्टवर्दी एआई डायलॉग इंजन (TAIDE) का उद्देश्य ताइवान के सामाजिक, सांस्कृतिक और भाषाई मानदंडों के अनुरूप एक मॉडल विकसित करना है।
हालांकि TAIDE पर काम रुका हुआ प्रतीत होता है, लेकिन इसने प्रोजेक्ट TAME के लिए एक महत्वपूर्ण बेंचमार्क के रूप में काम किया। विभिन्न संगठनों से धन प्राप्त करने वाले राष्ट्रीय ताइवान विश्वविद्यालय में मशीन इंटेलिजेंस एंड अंडरस्टैंडिंग लेबोरेटरी (MiuLab) द्वारा विकसित TAME को 500 बिलियन टोकन पर प्रशिक्षित किया गया था। इसने विश्वविद्यालय प्रवेश, बार और पारंपरिक चीनी चिकित्सा परीक्षाओं में उच्च स्कोर प्राप्त करते हुए, 39 मूल्यांकनों में GPT-4o सहित प्रतिस्पर्धियों को बेहतर प्रदर्शन किया।
TAME के उद्देश्यों में से एक स्थानीय संस्कृति को बढ़ावा देना है। स्थानीय भाषा क्षमताओं को अनलॉक करना एक महत्वपूर्ण कदम है। कुओ ने व्हिस्पर पर आधारित ताइवानी आवाज LLM के विकास का उल्लेख किया, जिसने मौखिक ताइवानी को समझने में सकारात्मक परिणाम प्राप्त किए हैं। हक्का भाषा पहचान विकसित करने के प्रयास जारी हैं।
इन प्रयासों को उन क्षेत्रों के संस्थानों द्वारा अच्छी तरह से सराहा गया है जहां ये भाषाएं प्रचलित हैं। स्वदेशी भाषा पहचान में मॉडल को प्रशिक्षित करने के प्रयास भी किए जा रहे हैं, लेकिन सीमित डेटा एक बाधा बना हुआ है। AI को एक नई भाषा सीखने के लिए प्रशिक्षित करने के लिए पाठ के साथ युग्मित आवाज रिकॉर्डिंग की एक महत्वपूर्ण मात्रा की आवश्यकता होती है।
सरकारी अभिलेखागार में ऐतिहासिक डेटा तक पहुंच एक और अवसर प्रस्तुत करती है। हालांकि, कुछ डेटा कॉपीराइट द्वारा संरक्षित है। कृत्रिम सामान्य बुद्धिमत्ता का उदय लुप्तप्राय और विलुप्त भाषाओं के पुनरुद्धार में सहायता करने की क्षमता प्रदान करता है।
एआई संप्रभुता की खोज
भाषा और संस्कृति का अंतर एआई संप्रभुता के महत्व को ताइवानी पहचान को मजबूत करने, ताइवान की कहानी को संप्रेषित करने और इसके सूचना वातावरण की रक्षा करने के साधन के रूप में रेखांकित करता है।
उद्योग सलाहकार और मार्केट इंटेलिजेंस एंड कंसल्टिंग इंस्टीट्यूट (MIC) में निदेशक जूलियन चू LLM मॉडल और प्रशिक्षण डेटा में पूर्वाग्रह की संभावना पर जोर देते हैं। उन्होंने कहा कि पारंपरिक अक्षरों का उपयोग करते समय भी, LLM आउटपुट पीपुल्स रिपब्लिक ऑफ चाइना की शैली को प्रतिबिंबित कर सकते हैं और ताइवान की संस्कृति को पकड़ने में विफल हो सकते हैं। लक्ष्य ताइवानी कंपनियों के लिए ताइवानी भाषा या डेटा का उपयोग LLM को प्रशिक्षित करने और AI संप्रभुता का निर्माण करने के लिए है।
चू ने फॉर्मोसा फाउंडेशन मॉडल (FFM-Llama2) को एक और आशाजनक ताइवान LLM के रूप में उल्लेख किया। सितंबर 2023 में ताइवान वेब सर्विस द्वारा जारी किया गया, इसका उद्देश्य AI का लोकतंत्रीकरण करना था। Foxconn ने मार्च में अपना LLM, FoxBrain भी लॉन्च किया। हालांकि, कुछ टिप्पणीकार बड़ी कंपनियों के LLM में उद्यमों के बारे में संशयवादी बने हुए हैं।
TAME विकसित करने वाली MiuLab टीम के सदस्य लिन येन-टिंग ताइवान के बारे में सूचना वातावरण में अंतर को दूर करने की आवश्यकता पर जोर देते हैं। उन्होंने कहा कि DeepSeek-R1 और अन्य चीनी LLM ताइवान का एक विकृत दृष्टिकोण प्रस्तुत करते हैं। अमेरिका द्वारा विकसित मॉडल भी कभी-कभी ताइवान को गलत तरीके से प्रस्तुत कर सकते हैं। ओपन-सोर्स मॉडल ताइवान को प्राथमिकता नहीं दे सकते हैं, और प्रशिक्षण डेटा पर चीन का प्रभुत्व है।
इसलिए, ताइवानी सामग्री को चुनिंदा रूप से शामिल करना और इसे मॉडल में फिर से प्रशिक्षित करना महत्वपूर्ण है। यह सक्रिय दृष्टिकोण यह सुनिश्चित करता है कि ताइवान का अनूठा सांस्कृतिक और भाषाई परिदृश्य डिजिटल क्षेत्र में सटीक रूप से प्रस्तुत किया गया है, जो राष्ट्रीय पहचान की भावना को बढ़ावा देता है और वैश्विक AI विकास के सामने अपनी विशिष्ट विरासत को संरक्षित करता है। ताइवानी पहचान को संरक्षित करने के लिए यह समर्पण सुनिश्चित करता है कि द्वीप राष्ट्र की अनूठी संस्कृति और मूल्यों को प्रमुख आख्यानों द्वारा धुंधला न किया जाए।
इस प्रयास में निहित चुनौतियां पर्याप्त हैं। वास्तव में प्रतिनिधि AI मॉडल बनाने के लिए स्थानीयकृत सामग्री के विशाल डेटासेट तक पहुंच और प्राकृतिक भाषा प्रसंस्करण में विशेषज्ञता सहित संसाधनों के महत्वपूर्ण निवेश की आवश्यकता होती है। इसके अलावा, गलत सूचना और पक्षपाती जानकारी का मुकाबला करने की चल रही आवश्यकता के लिए शोधन और अनुकूलन की एक सतत प्रक्रिया की आवश्यकता होती है।
इन चुनौतियों के बावजूद, ताइवान की AI संप्रभुता के प्रति प्रतिबद्धता अटूट बनी हुई है। TAME और अन्य स्थानीयकृत LLM का विकास यह सुनिश्चित करने की दिशा में एक महत्वपूर्ण कदम का प्रतिनिधित्व करता है कि आर्टिफिशियल इंटेलिजेंस का भविष्य द्वीप की अनूठी सांस्कृतिक पहचान, लोकतांत्रिक मूल्यों और दुनिया में अपने विशिष्ट स्थान को संरक्षित करने के अटूट प्रतिबद्धता को दर्शाता है। AI संप्रभुता को प्राथमिकता देकर, ताइवान न केवल अपनी सांस्कृतिक विरासत की रक्षा कर रहा है बल्कि खुद को वैश्विक AI परिदृश्य में एक प्रमुख खिलाड़ी के रूप में स्थापित कर रहा है, यह दर्शाता है कि तकनीकी उन्नति को सांस्कृतिक पहचान और लोकतांत्रिक सिद्धांतों के संरक्षण के साथ जोड़ा जा सकता है।
यात्रा जारी रखना
पूर्ण AI संप्रभुता की यात्रा जारी है। चुनौतियों को दूर करने और इन पहलों की दीर्घकालिक सफलता सुनिश्चित करने के लिए आगे अनुसंधान, विकास और सहयोग महत्वपूर्ण हैं। AI संप्रभुता को प्राथमिकता देना जारी रखते हुए, ताइवान एक डिजिटल परिदृश्य बना सकता है जो वास्तव में अपनी अनूठी सांस्कृतिक पहचान और लोकतांत्रिक मूल्यों को दर्शाता है, जो अन्य देशों के लिए एक उदाहरण स्थापित करता है जो तेजी से आपस में जुड़ी दुनिया में अपने विशिष्ट स्थान को बनाए रखने का प्रयास कर रहे हैं।