डीपसीक पर हमला: Baidu के CEO ने AI मॉडल पर जताई चिंता
एक चीनी AI मॉडल, DeepSeek, जिसने इस साल की शुरुआत में काफी ध्यान और प्रशंसा हासिल की, हाल ही में Baidu के चेयरमैन और CEO रॉबिन ली की जांच के दायरे में आ गया है। 25 अप्रैल को Baidu AI डेवलपर सम्मेलन के दौरान, ली ने DeepSeek की क्षमताओं के बारे में आरक्षण व्यक्त किया, जिसमें विविध मीडिया फॉर्मेट को संसाधित करने में इसकी सीमाएं, इसकी धीमी गति और उच्च लागत, और गलत जानकारी उत्पन्न करने की इसकी प्रवृत्ति का हवाला दिया, जिससे यह व्यापक उपयोग के लिए अविश्वसनीय हो गया।
DeepSeek की विवादास्पद शुरुआत
Guancha.cn और Sina.com की रिपोर्टों के अनुसार, ली ने सम्मेलन के दौरान बड़े पैमाने पर AI मॉडल के उतार-चढ़ाव वाले परिदृश्य को संबोधित किया। उन्होंने मॉडल डेवलपर्स के बीच तीव्र प्रतिस्पर्धा पर प्रकाश डाला, जिसे अक्सर ‘चूहे की दौड़’ के रूप में वर्णित किया जाता है, और इसके परिणामस्वरूप डेवलपर्स के बीच आत्मविश्वास से एप्लिकेशन बनाने में भ्रम और हिचकिचाहट होती है।
ली ने जोर देकर कहा कि ‘एप्लिकेशन के बिना, चिप्स और मॉडल बेकार हैं।’ उन्होंने वर्तमान बड़े पैमाने के मॉडल का उपयोग करने की उच्च लागत और अव्यवहारिकता को AI एप्लिकेशन बनाने के उद्देश्य से डेवलपर्स के लिए एक बड़ी बाधा बताया।
DeepSeek, हांग्जो, चीन स्थित एक स्टार्टअप ने जनवरी में अपना ओपन-सोर्स रीजनिंग मॉडल, R1 जारी किया। उस समय, सरकारी मीडिया ने DeepSeek को OpenAI जैसे लोगों को पीछे छोड़ने के रूप में सराहा। हालांकि, उपयोगकर्ताओं और शोधकर्ताओं द्वारा बाद की जांच में कमियां, सुरक्षा कमजोरियां और संभावित जोखिम सामने आए। ताइवान, जापान, दक्षिण कोरिया, संयुक्त राज्य अमेरिका, कनाडा, इटली, ऑस्ट्रेलिया और नीदरलैंड सहित कई सरकारों, सैकड़ों कंपनियों के साथ, सरकारी और कॉर्पोरेट उपकरणों पर DeepSeek के उपयोग पर रोक लगा दी है।
8 फरवरी को, AI सुरक्षा विशेषज्ञों ने मीडिया के साथ DeepSeek पर गहन सुरक्षा परीक्षणों के परिणाम साझा किए। उन्होंने पाया कि DeepSeek ChatGPT, Gemini और Claude की तुलना में ‘जेलब्रेकिंग’ के लिए अधिक संवेदनशील था। इस भेद्यता ने उपयोगकर्ताओं को AI की मूल सुरक्षा प्रतिबंधों को बायपास करने की अनुमति दी, जिससे संभावित रूप से खतरनाक, हानिकारक या अवैध सामग्री प्राप्त करना आसान हो गया।
मार्च में, ‘Luchen Technology’, त्सिंगुआ विश्वविद्यालय से जुड़े AI बुनियादी ढांचा कंपनी, जो API और क्लाउड मिरर सेवाएं प्रदान करने के लिए DeepSeek मॉडल को एकीकृत करने वाली पहली कंपनियों में से एक थी, ने संबंधित सेवाओं के निलंबन की घोषणा की। कंपनी के संस्थापक, यू यांग ने एक पोस्ट में खुलासा किया कि DeepSeek से जुड़ी वास्तविक लागत सैद्धांतिक लागतों की तुलना में काफी अधिक थी। ऑनलाइन बैकलैश के बाद, उन्होंने सार्वजनिक रूप से कहा कि DeepSeek अमेरिकी तकनीक का उपयोग किए बिना अल्पकालिक रूप से काम नहीं कर सकता है, यह सवाल करते हुए कि इस वास्तविकता को खुले तौर पर क्यों स्वीकार नहीं किया जा सकता है।
4 मार्च को Sina Technology की एक रिपोर्ट के अनुसार, DeepSeek ने 1 मार्च को 17:02 बजे अपने ऑनलाइन सिस्टम के लिए 545% के सैद्धांतिक लागत लाभ मार्जिन की घोषणा की। इसके बाद, Luchen Technology ने घोषणा की कि वह एक सप्ताह के भीतर DeepSeek API सेवाएं बंद कर देगी, उपयोगकर्ताओं से अपने शेष शेष का उपयोग करने का आग्रह किया।
रिपोर्ट में कहा गया है कि Luchen Technology ने DeepSeek API सेवा को बंद करने के विशिष्ट कारणों का खुलासा सार्वजनिक रूप से नहीं किया है। हालांकि, Zhihu जैसे प्लेटफार्मों पर DeepSeek की लागतों के संस्थापक के व्यापक विश्लेषण से पता चलता है कि लागत API सेवा प्रदान करने को बंद करने के निर्णय में एक प्राथमिक कारक थी।
राष्ट्रीय सुरक्षा पर चिंताएं
DeepSeek और चीनी सरकार के बीच संबंध शुरू में कथित तौर पर अधिक प्रत्यक्ष हैं। Feroot Security, एक कनाडाई साइबर सुरक्षा फर्म, ने DeepSeek के वेबसाइट लॉगिन पेज और China Mobile के बीच महत्वपूर्ण लिंक की खोज की, जो एक चीनी राज्य के स्वामित्व वाली कंपनी है जिसे पहले अमेरिकी सरकार द्वारा स्वीकृत किया गया था।
हाल के महीनों में, राष्ट्रीय सुरक्षा पर चिंताओं के कारण DeepSeek पर प्रतिबंध लगाने के लिए बढ़ती मांग हुई है।
24 अप्रैल को, अमेरिकी प्रतिनिधि सभा के कई सदस्यों ने DeepSeek को एक पत्र भेजा, जिसमें चीनी कम्युनिस्ट पार्टी (CCP) के साथ कंपनी के संबंधों के बारे में चिंता व्यक्त की गई और इसके AI मॉडल को प्रशिक्षित करने के लिए उपयोग किए गए अमेरिकी डेटा के बारे में जानकारी का अनुरोध किया गया।
प्रतिनिधि ब्रेट गुथरी, हाउस एनर्जी एंड कॉमर्स कमेटी के अध्यक्ष, और प्रतिनिधि गुस बिलिरकिस, इनोवेशन, डेटा और कॉमर्स की उपसमिति के अध्यक्ष, उपसमिति के दस अन्य सदस्यों के साथ, ने DeepSeek को एक पत्र संबोधित करते हुए कंपनी के ‘अमेरिकियों के व्यक्तिगत डेटा के संग्रह’ और संबंधित राष्ट्रीय सुरक्षा जोखिमों के बारे में चिंता व्यक्त की।
पत्र में, गुथरी और बिलिरकिस ने कहा कि ‘DeepSeek अमेरिकी उपयोगकर्ताओं के व्यक्तिगत डेटा को चीन में सर्वरों को प्रेषित करने की बात स्वीकार करता है, जहां वह जानकारी निस्संदेह चीनी कम्युनिस्ट पार्टी से संबद्ध अधिकारियों द्वारा एक्सेस की जाएगी। हमें चिंता है कि हमारे प्राथमिक विरोधी के साथ यह एजेंसी संबंध हमारे डेटा और राष्ट्रीय सुरक्षा को खतरे में डालता है।
‘यह सुनिश्चित करने के लिए कि अमेरिकी उपयोगकर्ता और उनके व्यवसाय विदेशी हस्तक्षेप से सुरक्षित हैं, हम DeepSeek और हमारे राष्ट्र के लिए इसके खतरे की जांच शुरू कर रहे हैं।’
पत्र में आगे कहा गया है, ‘मीडिया रिपोर्टों के अनुसार, कंपनी चीनी कम्युनिस्ट पार्टी से संबद्ध अन्य संस्थाओं, जिनमें ByteDance भी शामिल है, के साथ उपयोगकर्ताओं की व्यक्तिगत जानकारी भी साझा करती है।
‘इसी समय, शोधकर्ताओं ने DeepSeek के कथित सुरक्षा नियंत्रणों और मॉडल सुरक्षा उपायों में महत्वपूर्ण कमजोरियों की खोज की है। इन जोखिमों के जवाब में, न्यूयॉर्क, टेक्सास और वर्जीनिया सहित राज्यों की बढ़ती संख्या ने सरकारी उपकरणों पर DeepSeek के उपयोग पर रोक लगा दी है, और राज्य के अटॉर्नी जनरलों ने व्यापक प्रतिबंधों का आह्वान किया है।’
16 अप्रैल को, चीनी कम्युनिस्ट पार्टी पर अमेरिकी हाउस सिलेक्ट कमेटी ने एक रिपोर्ट जारी की, जिसमें जोर दिया गया कि DeepSeek अमेरिकी राष्ट्रीय सुरक्षा के लिए एक महत्वपूर्ण खतरा है। रिपोर्ट में DeepSeek पर CCP के लिए उपयोगकर्ता डेटा एकत्र करने और गुप्त रूप से परिणामों में हेरफेर करने का आरोप लगाया गया, जिससे CCP के लिए खुद को सुंदर बनाने, विदेशी नागरिकों की निगरानी करने और अमेरिकी निर्यात नियंत्रण प्रतिबंधों को चुराने और कमजोर करने का नवीनतम उपकरण बन गया।
रिपोर्ट में बताया गया है कि DeepSeek सिर्फ एक और AI चैटबॉट प्रतीत हो सकता है जो उपयोगकर्ताओं को टेक्स्ट उत्पन्न करने और प्रश्नों के उत्तर देने का एक तरीका प्रदान करता है, एक करीब से जांच से पता चलता है कि DeepSeek गुप्त रूप से प्राप्त व्यक्तिगत डेटा को चाइना मोबाइल को प्रेषित करता है, जिसका चीनी सेना के साथ संबंध है, जिससे उपयोगकर्ताओं के लिए सुरक्षा कमजोरियां पैदा होती हैं। अमेरिका ने पहले ही चाइना मोबाइल पर संयुक्त राज्य अमेरिका में काम करने से प्रतिबंध लगा दिया है।
DeepSeek की कथित कमियों में एक गहरा गोता
जबकि DeepSeek के आसपास की शुरुआती चर्चा ने विभिन्न क्षेत्रों में क्रांति लाने के लिए तैयार एक AI चमत्कार की तस्वीर चित्रित की, करीब से जांच ने एक अधिक सूक्ष्म और जटिल वास्तविकता का खुलासा किया है। Baidu के CEO, रॉबिन ली द्वारा उठाई गई चिंताएं और साइबर सुरक्षा विशेषज्ञों और सरकारी निकायों द्वारा बाद की जांच, कई महत्वपूर्ण क्षेत्रों को उजागर करती है जहां DeepSeek उम्मीदों से कम है और संभावित जोखिमों को बढ़ाता है।
सीमित मल्टीमॉडल क्षमताएं
DeepSeek के खिलाफ लगाए गए प्राथमिक आरोपों में से एक इसकी मल्टीमॉडल सामग्री को संसाधित करने की सीमित क्षमता है। अधिक उन्नत AI मॉडल के विपरीत जो टेक्स्ट, इमेज, ऑडियो और वीडियो सहित विभिन्न प्रकार के डेटा को मूल रूप से एकीकृत और समझ सकते हैं, DeepSeek कथित तौर पर बुनियादी टेक्स्ट इनपुट से परे कुछ भी समझने के लिए संघर्ष करता है। यह सीमा वास्तविक दुनिया के परिदृश्यों में इसकी प्रयोज्यता को काफी हद तक प्रतिबंधित करती है जहां जानकारी अक्सर फॉर्मेट के संयोजन में प्रस्तुत की जाती है। उदाहरण के लिए, DeepSeek एक सोशल मीडिया पोस्ट का विश्लेषण करने के लिए संघर्ष कर सकता है जिसमें टेक्स्ट और एक छवि दोनों शामिल हैं, या वीडियो कॉन्फ्रेंस को ट्रांसक्राइब और समझ सकता है।
प्रदर्शन संबंधी मुद्दे: गति और लागत
विविध मीडिया को संभालने में अपनी सीमाओं से परे, DeepSeek को इसके प्रदर्शन से संबंधित चुनौतियों का भी सामना करना पड़ता है। रॉबिन ली के अनुसार, मॉडल को इसकी ‘धीमी’ गति और ‘उच्च’ लागत से चित्रित किया गया है, जिससे यह स्केलेबल और लागत प्रभावी AI एप्लिकेशन बनाने के इच्छुक डेवलपर्स के लिए कम आकर्षक हो जाता है। DeepSeek को चलाने के लिए आवश्यक उच्च कम्प्यूटेशनल संसाधन व्यवसायों के लिए महत्वपूर्ण खर्चों में अनुवाद कर सकते हैं, खासकर बड़े पैमाने पर तैनाती वाले व्यवसायों के लिए। इसके अलावा, धीमी प्रसंस्करण गति चैटबॉट या वर्चुअल असिस्टेंट जैसे वास्तविक समय के अनुप्रयोगों में बाधा डाल सकती है, जहां सकारात्मक उपयोगकर्ता अनुभव के लिए प्रतिक्रियाशीलता महत्वपूर्ण है।
‘हैलुसिनेशन रेट’ समस्या
DeepSeek के आसपास एक और बड़ी चिंता इसकी उच्च ‘हैलुसिनेशन रेट’ है, जो मॉडल की गलत या बेतुकी जानकारी उत्पन्न करने की प्रवृत्ति को संदर्भित करती है। यह मुद्दा उन अनुप्रयोगों के लिए एक महत्वपूर्ण चुनौती है जिनके लिए विश्वसनीय और भरोसेमंद आउटपुट की आवश्यकता होती है। स्वास्थ्य सेवा या वित्त जैसे महत्वपूर्ण डोमेन में, जहां सटीकता सर्वोपरि है, DeepSeek द्वारा झूठी या भ्रामक जानकारी उत्पन्न करने के जोखिम के गंभीर परिणाम हो सकते हैं। ‘हैलुसिनेशन रेट’ मॉडल की विश्वसनीयता को कमजोर करता है और संवेदनशील संदर्भों में इसकी उपयोगिता को सीमित करता है।
सुरक्षा कमजोरियां और जेलब्रेकिंग
यह खुलासा कि DeepSeek अन्य प्रमुख AI मॉडल की तुलना में ‘जेलब्रेकिंग’ के लिए अधिक संवेदनशील है, महत्वपूर्ण सुरक्षा चिंताएं उठाता है। ‘जेलब्रेकिंग’ का तात्पर्य हानिकारक, अनैतिक या अवैध सामग्री को प्राप्त करने के लिए AI के सुरक्षा प्रतिबंधों को बायपास करने की प्रक्रिया से है। तथ्य यह है कि DeepSeek को इस तरह से अधिक आसानी से हेरफेर किया जा सकता है, इसके अंतर्निहित सुरक्षा आर्किटेक्चर में कमजोरियों का सुझाव देता है। इस भेद्यता का उपयोग दुर्भावनापूर्ण अभिनेताओं द्वारा गलत सूचना उत्पन्न करने, प्रचार फैलाने या अन्य हानिकारक गतिविधियों में संलग्न होने के लिए किया जा सकता है।
डेटा गोपनीयता और राष्ट्रीय सुरक्षा जोखिम
DeepSeek और चीनी सरकार के बीच कथित संबंध, विशेष रूप से चाइना मोबाइल के साथ इसके डेटा साझाकरण अभ्यास, ने डेटा गोपनीयता और राष्ट्रीय सुरक्षा के बारे में अलार्म बजाया है। अमेरिकी उपयोगकर्ताओं के व्यक्तिगत डेटा का चीन में सर्वरों को प्रसारण, जहां इसे CCP से संबद्ध अधिकारियों द्वारा एक्सेस किया जा सकता है, संभावित निगरानी, जासूसी और संवेदनशील जानकारी से समझौता करने के बारे में गंभीर चिंताएं उठाता है। DeepSeek की अमेरिकी सरकार की जांच विदेशी संस्थाओं द्वारा विकसित AI मॉडल से जुड़े संभावित जोखिमों के बारे में बढ़ती जागरूकता को रेखांकित करती है, जिनके प्रतिकूल सरकारों के साथ घनिष्ठ संबंध हैं।
व्यापक निहितार्थ
DeepSeek से संबंधित चिंताएं इस विशेष AI मॉडल की विशिष्ट सीमाओं और कमजोरियों से परे हैं। वे AI प्रौद्योगिकियों के तेजी से विकासऔर तैनाती से जुड़े व्यापक चुनौतियों और जोखिमों को दर्शाते हैं। DeepSeek मामला निम्नलिखित के महत्व को उजागर करता है:
- कठोर परीक्षण और मूल्यांकन: AI मॉडल को व्यापक रूप से तैनात किए जाने से पहले संभावित कमजोरियों, पूर्वाग्रहों और सुरक्षा कमजोरियों की पहचान करने और उन्हें दूर करने के लिए गहन परीक्षण और मूल्यांकन आवश्यक है।
- पारदर्शिता और जवाबदेही: डेवलपर्स को अपने मॉडल को प्रशिक्षित करने के लिए उपयोग किए गए डेटा और उनके द्वारा नियोजित एल्गोरिदम के बारे में पारदर्शी होना चाहिए। उन्हें अपने AI सिस्टम के आउटपुट और परिणामों के लिए भी जवाबदेह ठहराया जाना चाहिए।
- डेटा गोपनीयता और सुरक्षा सुरक्षा उपाय: उपयोगकर्ताओं की व्यक्तिगत जानकारी को अनधिकृत पहुंच, दुरुपयोग या शोषण से बचाने के लिए मजबूत डेटा गोपनीयता और सुरक्षा उपायों की आवश्यकता है।
- अंतर्राष्ट्रीय सहयोग: AI विकास और तैनाती के लिए सामान्य मानकों और विनियमों को स्थापित करने के लिए अंतर्राष्ट्रीय सहयोग महत्वपूर्ण है, यह सुनिश्चित करते हुए कि इन तकनीकों का उपयोग जिम्मेदारी से और नैतिक रूप से किया जाता है।
- आलोचनात्मक सोच और मीडिया साक्षरता: उपयोगकर्ताओं को AI मॉडल द्वारा उत्पन्न जानकारी का आलोचनात्मक मूल्यांकन करने और सटीक और भ्रामक सामग्री के बीच अंतर करने के लिए मीडिया साक्षरता कौशल विकसित करने के लिए प्रोत्साहित किया जाना चाहिए।
DeepSeek विवाद एक चेतावनी के रूप में कार्य करता है, जो हमें याद दिलाता है कि AI नवाचार की खोज को संभावित जोखिमों और सामाजिक निहितार्थों पर सावधानीपूर्वक विचार के साथ संतुलित किया जाना चाहिए।