तंत्रज्ञानाच्या जगात, कृत्रिम बुद्धिमत्ता (Artificial Intelligence - AI) वेगाने प्रगती करत आहे. या प्रगतीमुळे अनेक नवीन मॉडेल्स आणि तंत्रज्ञान उदयास येत आहेत. यापैकीच एक महत्त्वाचे मॉडेल म्हणजे डीपसीक (DeepSeek). या मॉडेलने सुरुवातीला खूप प्रशंसा मिळवली, परंतु अलीकडेच बायडूचे (Baidu) अध्यक्ष आणि सीईओ रॉबिन ली (Robin Li) यांनी या मॉडेलच्या क्षमतेबद्दल काही गंभीर चिंता व्यक्त केल्या आहेत.
डीपसीकचे वादग्रस्त पदार्पण
गुंचा डॉट कॉम (Guancha.cn) आणि सिना डॉट कॉम (Sina.com) यांच्या अहवालानुसार, २५ एप्रिल रोजी झालेल्या बायडू एआय डेव्हलपर कॉन्फरन्समध्ये (Baidu AI Developer Conference) रॉबिन ली यांनी मोठ्या प्रमाणावर असलेल्या एआय मॉडेल्सच्या अस्थिर परिणामांवर भाष्य केले. त्यांनी मॉडेल डेव्हलपर्समधील तीव्र स्पर्धेवर प्रकाश टाकला, ज्याला अनेकदा ‘उंदरांची शर्यत’ म्हटले जाते. या शर्यतीमुळे ॲप्लिकेशन्स (Applications) तयार करताना विकासकांमध्ये संभ्रम आणि अनिश्चितता निर्माण झाली आहे.
रॉबिन ली यांनी यावर जोर दिला की, ‘ॲप्लिकेशन्सशिवाय चिप्स (Chips) आणि मॉडेल्स (Models) निरुपयोगी आहेत.’ त्यांनी सध्याच्या मोठ्या मॉडेल्सचा वापर Developers साठी खूप खर्चिक आणि अव्यवहार्य असल्याचे सांगितले, ज्यामुळे AI ॲप्लिकेशन्स (AI Applications) बनवण्यात अडचणी येत आहेत.
डीपसीक हे चीनमधील हांग्जो (Hangzhou) येथे स्थित एक स्टार्टअप (Startup) आहे. या कंपनीने जानेवारीमध्ये R1 नावाचे ओपन-सोर्स (Open-source) Reasoning मॉडेल (Reasoning Model) जारी केले. त्यावेळी, सरकारी माध्यमांनी डीपसीक हे ओपनएआय (OpenAI) पेक्षाही सरस असल्याचे म्हटले होते. परंतु, वापरकर्त्यांनी आणि संशोधकांनी केलेल्या तपासणीत या मॉडेलमध्ये त्रुटी, सुरक्षा धोके आणि संभाव्य धोके असल्याचे उघड झाले. तैवान (Taiwan), जपान (Japan), दक्षिण कोरिया (South Korea), अमेरिका (United States), कॅनडा (Canada), इटली (Italy), ऑस्ट्रेलिया (Australia) आणि नेदरलँड्स (Netherlands) यांसारख्या अनेक सरकारांनी, तसेच शेकडो कंपन्यांनी सरकारी आणि कॉर्पोरेट उपकरणांवर डीपसीकचा वापर करण्यास मनाई केली आहे.
८ फेब्रुवारी रोजी, एआय सुरक्षा तज्ञांनी डीपसीकच्या सखोल सुरक्षा चाचणीचे निकाल माध्यमांसोबत Condi केले. त्यांनी असा शोध लावला की डीपसीक हे ChatGPT, Gemini आणि Claude च्या तुलनेत ‘जेलब्रेकिंग’ (Jailbreaking) साठी अधिक असुरक्षित आहे. या असुरक्षिततेमुळे वापरकर्त्यांना एआयच्या मूळ सुरक्षा निर्बंधांना बायपास (bypass) करणे सोपे झाले, ज्यामुळे संभाव्य धोकादायक, हानिकारक किंवा अवैध सामग्री मिळवणे शक्य झाले.
मार्चमध्ये, ‘लुचेन टेक्नॉलॉजी’ (Luchen Technology) या कंपनीने, जी AI इन्फ्रास्ट्रक्चर (AI infrastructure) कंपनी असून तिचे संबंध Tsinghua University शी आहेत, डीपसीक मॉडेल्स API (Application Programming Interface) आणि क्लाऊड मिरर सेवा (Cloud Mirror Service) देण्यासाठी एकत्रित केले होते. त्यांनी या संबंधित सेवा तात्पुरत्या थांबवल्या. कंपनीचे संस्थापक यू यांग (You Yang) यांनी एका पोस्टमध्ये उघड केले की डीपसीकशी संबंधित वास्तविक खर्च सैद्धांतिक खर्चापेक्षा खूप जास्त आहे. ऑनलाइन टीका झाल्यानंतर, त्यांनी जाहीर केले की डीपसीक अमेरिकन तंत्रज्ञानाचा (American Technology) वापर केल्याशिवाय कमी वेळेत चालू शकत नाही आणि ही वस्तुस्थिती उघडपणे का स्वीकारली जात नाही, असा प्रश्न त्यांनी विचारला.
सिना टेक्नॉलॉजीच्या ४ मार्चच्या अहवालानुसार, डीपसीकने १ मार्च रोजी १७:०२ वाजता त्यांच्या ऑनलाइन (Online) प्रणालीसाठी ५४५% सैद्धांतिक नफा जाहीर केला. त्यानंतर, लुचेन टेक्नॉलॉजीने घोषणा केली की ते एका आठवड्यात डीपसीक API सेवा बंद करतील आणि वापरकर्त्यांना त्यांचे शिल्लक पैसे वापरण्याची विनंती केली.
अहवालात नमूद केले आहे की लुचेन टेक्नॉलॉजीने डीपसीक API सेवा बंद करण्याची नेमकी कारणे सार्वजनिकपणे उघड केली नाहीत. तथापि, Zhihu सारख्या प्लॅटफॉर्मवर (Platform) डीपसीकच्या खर्चाचे विश्लेषण दर्शवते की खर्च हे API सेवा बंद करण्यामागचे मुख्य कारण होते.
राष्ट्रीय सुरक्षेची चिंता
डीपसीक आणि चीन सरकार (Chinese Government) यांच्यातील संबंध सुरुवातीला वाटले होते त्यापेक्षा अधिक थेट असू शकतात. कॅनडातील (Canada) सायबर सुरक्षा कंपनी (Cyber Security Company) फिरूट सिक्युरिटीने (Feroot Security) डीपसीकच्या वेबसाइटच्या (Website) लॉगिन (Login) पृष्ठाचे चायना मोबाईलशी (China Mobile) महत्त्वपूर्ण संबंध शोधले आहेत. चायना मोबाईल ही चीनची सरकारी मालकीची कंपनी आहे, ज्याच्यावर अमेरिकेने (America) यापूर्वी निर्बंध घातले आहेत.
गेल्या काही महिन्यांपासून, राष्ट्रीय सुरक्षेच्या (National Security) चिंतेमुळे डीपसीकवर बंदी घालण्याची मागणी वाढत आहे.
२४ एप्रिल रोजी, अमेरिकेच्या हाऊस ऑफ रिप्रेझेंटेटिव्ह्सच्या (US House of Representatives) काही सदस्यांनी डीपसीकच्या चिनी कम्युनिस्ट पार्टीशी (Chinese Communist Party - CCP) असलेल्या संबंधांबद्दल चिंता व्यक्त केली आणि त्यांच्या AI मॉडेलला प्रशिक्षण देण्यासाठी वापरल्या जाणार्या अमेरिकन डेटा (American Data) संबंधी माहिती मागितली.
हाऊस एनर्जी अँड कॉमर्स कमिटीचे (House Energy and Commerce Committee) अध्यक्ष प्रतिनिधी ब्रेट गुथरी (Brett Guthrie) आणि इनोव्हेशन, डेटा अँड कॉमर्स उपसमितीचे (Subcommittee on Innovation, Data, and Commerce) अध्यक्ष प्रतिनिधी गस बिलिराकिस (Gus Bilirakis) यांनी इतर दहा सदस्यांसह डीपसीकला एक पत्र लिहिले. त्यांनी कंपनीच्या ‘अमेरिकन नागरिकांच्या वैयक्तिक डेटाच्या संकलना’ (Collection of Americans’ personal data) बद्दल आणि त्या संबंधित राष्ट्रीय सुरक्षा धोक्यांबद्दल चिंता व्यक्त केली.
गुथरी आणि बिलिराकिस यांनी पत्रात म्हटले आहे की, ‘डीपसीक अमेरिकन वापरकर्त्यांचा वैयक्तिक डेटा चीनमधील सर्व्हरवर (Servers) पाठवते, जिथे तो डेटा चिनी कम्युनिस्ट पार्टीशी संबंधित अधिकाऱ्यांद्वारे ॲक्सेस (Access) केला जाईल. आम्हाला चिंता आहे की आमच्या मुख्य विरोधकाशी असलेले हे संबंध आपला डेटा (Data) आणि राष्ट्रीय सुरक्षा धोक्यात आणतात.’
‘अमेरिकन वापरकर्ते आणि त्यांचे व्यवसाय परदेशी हस्तक्षेपापासून सुरक्षित आहेत याची खात्री करण्यासाठी, आम्ही डीपसीक आणि त्याद्वारे आपल्या राष्ट्राला असलेल्या धोक्याची चौकशी सुरू करत आहोत.’
पत्रात पुढे म्हटले आहे की, ‘मीडिया रिपोर्टनुसार (Media report), कंपनी चिनी कम्युनिस्ट पार्टीशी संबंधित असलेल्या इतर संस्थांसोबत वापरकर्त्यांची वैयक्तिक माहिती शेअर (Share) करते, ज्यात ByteDance चा समावेश आहे.’
‘त्याच वेळी, संशोधकांनी डीपसीकच्या सुरक्षा नियंत्रणे आणि मॉडेलच्या संरक्षणातील गंभीर त्रुटी शोधल्या आहेत. या धोक्यांना प्रतिसाद म्हणून, न्यूयॉर्क (New York), टेक्सास (Texas) आणि व्हर्जिनिया (Virginia) यांसारख्या राज्यांसह अनेक राज्यांनी सरकारी उपकरणांवर डीपसीकचा वापर करण्यास मनाई केली आहे आणि राज्यांच्या Attorneys General यांनी व्यापक बंदीची मागणी केली आहे.’
१६ एप्रिल रोजी, चिनी कम्युनिस्ट पार्टीवरील (Chinese Communist Party) यूएस हाऊस सिलेक्ट कमिटीने (US House Select Committee) एक अहवाल जारी केला, ज्यामध्ये डीपसीक अमेरिकेच्या राष्ट्रीय सुरक्षेसाठी (US National Security) एक महत्त्वपूर्ण धोका असल्याचे सांगितले आहे. अहवालात डीपसीकवर CCP साठी वापरकर्त्यांचा डेटा (User Data) गोळा करणे आणि गुप्तपणे निकाल Manipulate करण्याचा आरोप आहे. डीपसीक हे CCP साठी स्वतःला सुंदर बनवण्यासाठी, परदेशी नागरिकांवर लक्ष ठेवण्यासाठी आणि अमेरिकेच्या निर्यात नियंत्रण निर्बंधांना (US export control restrictions) चोरून कमकुवत करण्यासाठीचे नवीनतम साधन बनले आहे.
अहवालात नमूद केले आहे की, डीपसीक हे फक्त एक AI Chatbot (एआय चॅटबॉट) असू शकते जे वापरकर्त्यांना Text Generate (टेक्स्ट जनरेट) करण्यासाठी आणि प्रश्नांची उत्तरे देण्यासाठी एक मार्ग प्रदान करते. परंतु, बारकाईने पाहिल्यास असे दिसून येते की डीपसीक गुप्तपणे मिळवलेला वैयक्तिक डेटा चायना मोबाईलला पाठवते, ज्याचे चिनी सैन्याशी संबंध आहेत, ज्यामुळे वापरकर्त्यांसाठी सुरक्षा धोके निर्माण होतात. अमेरिकेने यापूर्वीच चायना मोबाईलला अमेरिकेत काम करण्यास बंदी घातली आहे.
डीपसीकच्या कथित त्रुटींचा सखोल अभ्यास
डीपसीकबद्दल सुरुवातीला निर्माण झालेल्या उत्साहाने विविध क्षेत्रांमध्ये क्रांती घडवून आणण्याची क्षमता असलेले AI मॉडेल म्हणून चित्र रंगवले होते, परंतु बारकाईने पाहिल्यास एक अधिक सूक्ष्म आणि गुंतागुंतीची वास्तविकता समोर येते. बायडूचे सीईओ रॉबिन ली यांनी व्यक्त केलेल्या चिंता आणि त्यानंतर सायबर सुरक्षा तज्ञांनी (Cyber security experts) आणि सरकारी संस्थांनी केलेल्या तपासणीमुळे डीपसीकमधील अनेक त्रुटी निदर्शनास आल्या, ज्यामुळे संभाव्य धोके वाढले आहेत.
मल्टीमॉडल क्षमतेची कमतरता
डीपसीकवर असलेली प्रमुख टीका म्हणजे मल्टीमॉडल (Multimodal) सामग्री Process (प्रोसेस) करण्याची त्याची मर्यादित क्षमता. टेक्स्ट (Text), इमेज (Image), ऑडिओ (Audio) आणि व्हिडिओ (Video) यांसारख्या विविध प्रकारच्या डेटाचे (Data) सहजपणे एकत्रीकरण आणि आकलन करणार्या अधिक प्रगत AI मॉडेलच्या विपरीत, डीपसीक केवळ मूलभूत Text Input (टेक्स्ट इनपुट) समजून घेण्यासाठी संघर्ष करते. ही मर्यादा वास्तविक जगातील परिस्थितींमध्ये त्याच्या उपयोजनाला मोठ्या प्रमाणात प्रतिबंधित करते, जिथे माहिती अनेकदा फॉरमॅटच्या (Format) संयोजनात सादर केली जाते. उदाहरणार्थ, डीपसीकला सोशल मीडिया पोस्टचे (Social Media Post) विश्लेषण करण्यात अडचण येऊ शकते, ज्यामध्ये टेक्स्ट आणि इमेज दोन्ही समाविष्ट आहेत, किंवा व्हिडिओ कॉन्फरन्सचे (Video conference) लिप्यंतरण (transcription) करून ते समजून घेणे कठीण होऊ शकते.
कार्यक्षमतेतील समस्या: गती आणि खर्च
विविध मीडिया हाताळणीतील मर्यादांव्यतिरिक्त, डीपसीकला त्याच्या कार्यक्षमतेशी संबंधित समस्यांचा देखील सामना करावा लागतो. रॉबिन ली यांच्या मते, हे मॉडेल ‘Slow’ गती आणि ‘High’ खर्चामुळे ओळखले जाते, ज्यामुळे स्केलेबल (Scalable) आणि Cost-effective (कॉस्ट-इफेक्टिव्ह) AI ॲप्लिकेशन्स (AI Applications) तयार करू पाहणाऱ्या डेव्हलपर्ससाठी ते कमी आकर्षक ठरते. डीपसीक चालवण्यासाठी आवश्यक असलेल्या High Computational Resources (उच्च संगणकीय संसाधने) मुळे व्यवसायांसाठी खर्च वाढू शकतो, विशेषत: मोठ्या प्रमाणावर Deployment (तैनाती) असलेल्यांसाठी. शिवाय, Slow Processing Speed (प्रक्रिया गती कमी) मुळे Chatbots (चॅटबॉट्स) किंवा व्हर्च्युअल असिस्टंट्ससारख्या (Virtual Assistants) रिअल-टाइम ॲप्लिकेशन्समध्ये (Real-time applications) अडथळा येऊ शकतो, जिथे सकारात्मक User Experience (वापरकर्ता अनुभव) साठी प्रतिसाद महत्त्वाचा असतो.
‘हॅल्युसिनेशन रेट’ समस्या
डीपसीकबद्दल आणखी एक मोठी चिंता म्हणजे त्याचा High ‘Hallucination Rate’ (उच्च ‘हॅल्युसिनेशन रेट’), म्हणजे मॉडेलची चुकीची किंवा अर्थहीन माहिती तयार करण्याची प्रवृत्ती. ज्या ॲप्लिकेशन्सना (Applications) विश्वसनीय आणि खात्रीशीर Output (आउटपुट) आवश्यक आहे, त्यांच्यासाठी ही समस्या एक मोठे आव्हान आहे. आरोग्यसेवा (Healthcare) किंवा वित्त (Finance) यांसारख्या क्षेत्रांमध्ये, जिथे अचूकता सर्वोपरि आहे, डीपसीक चुकीची किंवा दिशाभूल करणारी माहिती तयार केल्यास त्याचे गंभीर परिणाम होऊ शकतात. ‘Hallucination Rate’ मॉडेलच्या विश्वासार्हतेला कमी करते आणि संवेदनशील संदर्भांमध्ये त्याची उपयुक्तता मर्यादित करते.
सुरक्षा धोके आणि जेलब्रेकिंग
इतर आघाडीच्या AI मॉडेलच्या तुलनेत डीपसीक ‘जेलब्रेकिंग’साठी (Jailbreaking) अधिक असुरक्षित आहे, हे उघड झाल्यामुळे सुरक्षेसंबंधी गंभीर चिंता वाढल्या आहेत. ‘जेलब्रेकिंग’ म्हणजे हानिकारक, अनैतिक किंवा बेकायदेशीर सामग्री मिळवण्यासाठी AI च्या सुरक्षा निर्बंधांना बायपास (bypass) करण्याची प्रक्रिया. डीपसीकला या प्रकारे अधिक सहजपणे Manipulate (Manipulation) केले जाऊ शकते, हे त्याच्या मूलभूत सुरक्षा आर्किटेक्चरमधील (Security architecture) कमकुवतपणा दर्शवते. या असुरक्षिततेचा गैरवापर malicious actors द्वारे Disinformation (खोट्या बातम्या) तयार करण्यासाठी, Propaganda (खोट्या कल्पनांचा प्रसार) करण्यासाठी किंवा इतर हानिकारक क्रियाकलापांमध्ये सहभागी होण्यासाठी केला जाऊ शकतो.
डेटा गोपनीयता आणि राष्ट्रीय सुरक्षा धोके
डीपसीक आणि चीन सरकार यांच्यातील कथित संबंध, विशेषत: चायना मोबाईलसोबत डेटा शेअरिंग (Data sharing) करण्याच्या पद्धतीमुळे डेटा गोपनीयता (Data privacy) आणि राष्ट्रीय सुरक्षेबाबत (National security) धोक्याची घंटा वाजली आहे. अमेरिकन वापरकर्त्यांचा वैयक्तिक डेटा चीनमधील Servers (सर्व्हर) वर पाठवला जातो, जिथे CCP शी संबंधित अधिकारी तो ॲक्सेस (access) करू शकतात. यामुळे संभाव्य पाळत ठेवणे, हेरगिरी आणि संवेदनशील माहिती Compromise (compromise) होण्याचा धोका वाढतो. डीपसीकची US सरकारने केलेली तपासणी AI मॉडेलशी संबंधित संभाव्य धोक्यांबद्दल वाढती जागरूकता दर्शवते, जे परदेशी संस्थांद्वारे विकसित केले गेले आहेत आणि ज्यांचे शत्रुत्वपूर्ण सरकारांशी संबंध आहेत.
व्यापक परिणाम
डीपसीकशी संबंधित चिंता केवळ या विशिष्ट AI मॉडेलच्या मर्यादा आणि असुरक्षिततेपुरत्या मर्यादित नाहीत. त्या AI तंत्रज्ञानाच्या (AI technologies) जलद विकास आणि Deployment (तैनाती) संबंधित व्यापक आव्हाने आणि धोके दर्शवतात. डीपसीक प्रकरण खालील गोष्टींचे महत्त्व अधोरेखित करते:
- कठोर चाचणी आणि मूल्यांकन: AI मॉडेल मोठ्या प्रमाणावर तैनात करण्यापूर्वी संभाव्य कमकुवतपणा, Bias (पूर्वाग्रह) आणि सुरक्षा त्रुटी ओळखण्यासाठी आणि त्यांचे निराकरण करण्यासाठी Thorough Testing (सखोल चाचणी) आणि Evaluation (मूल्यांकन) आवश्यक आहे.
- पारदर्शकता आणि उत्तरदायित्व: डेव्हलपर्सनी (Developers) त्यांचे मॉडेल तयार करण्यासाठी वापरलेल्या डेटा (Data) आणि त्यांनी वापरलेल्या Algorithms (अल्गोरिदम) बद्दल Transparent (पारदर्शक) असले पाहिजे. त्यांच्या AI सिस्टीमच्या Output (आउटपुट) आणि परिणामांसाठी त्यांना जबाबदार धरले पाहिजे.
- डेटा गोपनीयता आणि सुरक्षा उपाय: वापरकर्त्यांच्या वैयक्तिक माहितीचे अनधिकृत ॲक्सेस, गैरवापर किंवा शोषण पासून संरक्षण करण्यासाठी मजबूत डेटा गोपनीयता (Data privacy) आणि सुरक्षा उपायांची (security measures) आवश्यकता आहे.
- आंतरराष्ट्रीय सहकार्य: AI विकासासाठी आणि Deployment (तैनाती) साठी सामायिक मानके आणि नियम स्थापित करण्यासाठी आंतरराष्ट्रीय सहकार्य महत्त्वाचे आहे, हे सुनिश्चित करणे की या तंत्रज्ञानाचा वापर जबाबदारीने आणि नैतिकतेने केला जाईल.
- Critical Thinking (Critical Thinking) आणि Media Literacy (मीडिया साक्षरता): वापरकर्त्यांना AI मॉडेलद्वारे (AI models) तयार केलेल्या माहितीचे गंभीरपणे मूल्यांकन करण्यासाठी आणि अचूक आणि दिशाभूल करणार्या सामग्रीमध्ये फरक करण्यासाठी Media Literacy (मीडिया साक्षरता) कौशल्ये विकसित करण्यास प्रोत्साहित केले पाहिजे.
डीपसीक वाद एक Cautionary Tale (चेतावणी देणारी कथा) आहे, जी आपल्याला आठवण करून देते की AI Innovation (एआय Innovation) चा पाठपुरावा करताना संभाव्य धोके आणि सामाजिक परिणामांचा काळजीपूर्वक विचार करणे आवश्यक आहे.