चिनी हॉस्पिटल्समध्ये डीपसीक एआयबद्दल चिंता

चिनी हॉस्पिटल्समध्ये डीपसीक एआयच्या जलद वापरामुळे चिंता

चिनी संशोधकांच्या एका टीमने डीपसीक (DeepSeek), एक कृत्रिम बुद्धिमत्ता मॉडेल, हॉस्पिटल्समध्ये झपाट्याने स्वीकारण्याबद्दल चिंता व्यक्त केली आहे. त्यांच्या विश्लेषणानुसार, क्लिनिकल सुरक्षा आणि डेटा गोपनीयतेला संभाव्य धोके आहेत, विशेषत: स्टार्टअपच्या स्वस्त ओपन-सोर्स मॉडेल्सच्या व्यापक वापरामुळे.

मार्चच्या सुरुवातीपर्यंत, डीपसीकचे मोठे भाषिक मॉडेल (LLMs) किमान 300 चिनी हॉस्पिटल्समध्ये क्लिनिकल निदान आणि वैद्यकीय निर्णय समर्थनासाठी वापरले जात होते.

जर्नल ऑफ द अमेरिकन मेडिकल असोसिएशन (JAMA) मध्ये प्रकाशित झालेल्या रिसर्च पेपरमध्ये, डीपसीकची प्रवृत्ती अशी माहिती तयार करण्याची आहे जी आकर्षक वाटते पण वास्तविकतेत अचूक नसते. एआयच्या मजबूत तर्क क्षमते असूनही, यामुळे महत्त्वपूर्ण क्लिनिकल धोके निर्माण होऊ शकतात. बीजिंगमधील शिन्हुआ युनिव्हर्सिटीमधील संशोधन विभाग, शिन्हुआ मेडिसिनचे संस्थापक प्रमुख वोंग टिएन यिन हे रिसर्च टीमचे सदस्य आहेत.

ही चेतावणी चीनमध्ये डीपसीकबद्दल असलेल्या उत्साहाच्या विरोधात आहे. स्टार्टअप, त्याच्या परवडणाऱ्या आणि उच्च-कार्यक्षम V3 आणि R1 मॉडेल्ससाठी प्रसिद्ध आहे, जो चीनच्या एआय प्रगतीचे प्रतीक बनला आहे.

वोंग आणि त्यांच्या सहकाऱ्यांनी यावर जोर दिला की आरोग्य सेवा व्यावसायिक जास्त अवलंबून राहू शकतात किंवा डीपसीकच्या आउटपुटला गंभीरपणे न तपासता स्वीकारू शकतात. यामुळे निदानमध्ये त्रुटी किंवा पक्षपाती उपचार योजना होऊ शकतात. याउलट, जे क्लिनिशियन सावध राहतील त्यांना वेळेच्या कमतरतेमुळे एआय आउटपुट तपासण्याचा अतिरिक्त भार सहन करावा लागेल.

ऑन-साइट तैनातीमधील सुरक्षा धोके

सुरक्षा आणि गोपनीयतेशी संबंधित धोके कमी करण्यासाठी हॉस्पिटल्स अनेकदा डीपसीक मॉडेलची खाजगी, ऑन-साइट तैनाती निवडतात, परंतु या दृष्टिकोनमुळे स्वतःच्या अडचणी निर्माण होतात. संशोधकांच्या मते, यामुळे “सुरक्षा जबाबदाऱ्या वैयक्तिक आरोग्य सेवा सुविधांकडे सरकतात,” ज्यांच्यापैकी अनेकांकडे आवश्यक सायबर सुरक्षा संरक्षणाची कमतरता असू शकते.

संशोधकांनी असेही नमूद केले की चीनमधील अपुरी प्राथमिक आरोग्य सेवा पायाभूत सुविधा आणि स्मार्टफोनच्या व्यापक वापरामुळे एक “परिपूर्ण वादळ” तयार होते, ज्यामुळे क्लिनिकल सुरक्षिततेबद्दलची चिंता वाढते.

संशोधक म्हणतात, “ज्यांच्यापर्यंत आरोग्य सेवा पोहोचणे कठीण आहे अशा गरजू लोकांना आता एआय-आधारित आरोग्य शिफारसींपर्यंत अभूतपूर्व प्रवेश मिळाला आहे, परंतु सुरक्षित अंमलबजावणीसाठी आवश्यक क्लिनिकल देखरेखेची त्यांच्याकडे कमतरता आहे.”

आरोग्य सेवा सेटिंग्जमध्ये एलएलएमची (LLMs) तपासणी

हा पेपर क्लिनिकल आणि वैद्यकीय सेटिंग्जमध्ये एलएलएमच्या (LLMs) उपयोगाबद्दलच्या वाढत्या संभाषणांमध्ये योगदान देतो. चीनमधील इतर संस्था देखील एलएलएमचा (LLMs) स्वीकार वाढत असताना त्यांची तपासणी करण्यास सुरुवात करत आहेत. हाँगकाँगच्या चीनी युनिव्हर्सिटीमधील संशोधकांनी गेल्या महिन्यात प्रकाशित केलेल्या आणखी एका पेपरमध्ये एआय एजंट्सच्या सायबर सुरक्षा धोक्यांची तपासणी केली आणि असे आढळले की सामान्यतः वापरल्या जाणाऱ्या एलएलएमद्वारे (LLMs) समर्थित असलेले विविध हल्ल्यांना बळी पडतात, ज्यात डीपसीक-आर1 सर्वात असुरक्षित आहे.

चीनने जनरेटिव्ह एआय तंत्रज्ञानात वाढ झाल्यामुळे आरोग्यसेवेत एलएलएमचा (LLMs) स्वीकार जलद केला आहे. गेल्या महिन्यात, चीनची वित्तीय तंत्रज्ञान कंपनी अँट ग्रुपने (Ant Group) तिच्या Alipay पेमेंट ॲपवर जवळपास 100 एआय वैद्यकीय एजंट सादर केले. या एजंट्सना चीनमधील प्रमुख हॉस्पिटल्समधील वैद्यकीय तज्ञांचे समर्थन आहे.

शिंग्हुआ युनिव्हर्सिटीमध्ये तयार झालेले स्टार्टअप Tairex ने नोव्हेंबरमध्ये व्हर्च्युअल हॉस्पिटल प्लॅटफॉर्मची अंतर्गत चाचणी सुरू केली. या प्लॅटफॉर्ममध्ये 42 एआय डॉक्टर आहेत जे 21 विभाग हाताळतात, ज्यात आपत्कालीन, श्वसन, बालरोग आणि हृदयरोग यांचा समावेश आहे. कंपनीने यावर्षीच्या अखेरीस हा प्लॅटफॉर्म लोकांसाठी सुरू करण्याची योजना उघड केली आहे.

आरोग्य सेवेतील एआय (AI) विषयीच्या चिंतेत अधिक खोलवर जा

चीनमधील आरोग्य सेवा सेटिंग्जमध्ये एआय (AI), विशेषत: डीपसीकसारख्या मोठ्या भाषिक मॉडेलचे (LLMs) जलद एकत्रीकरण, त्याचे संभाव्य फायदे आणि सावधगिरी बाळगण्याची आवश्यकता असणाऱ्यांमध्ये एक वाद निर्माण करते. एआय (AI) निदान, उपचार आणि आरोग्य सेवांपर्यंत पोहोच सुधारण्यासाठी रोमांचक शक्यता देत असले, तरी अनेक घटक अधिक विचारपूर्वक दृष्टीकोन आवश्यक असल्याचे दर्शवतात. संशोधकांनी व्यक्त केलेल्या चिंता अशा गंभीर क्षेत्रात एआय (AI) तैनात करण्याच्या गुंतागुंती आणि संभाव्य धोके अधोरेखित करतात.

प्राथमिक चिंतेपैकी एक म्हणजे एआय-व्युत्पन्न माहितीची विश्वासार्हता. एलएलएमना (LLMs) मोठ्या डेटासेटवर प्रशिक्षित केले जाते, परंतु या डेटासेटमध्ये त्रुटी, चुकीची माहिती किंवा कालबाह्य माहिती असू शकते. परिणामी, एआय (AI) मॉडेल कधीकधी असे आउटपुट तयार करू शकतात जे प्रशंसनीय वाटतात परंतु प्रत्यक्षात चुकीचे असतात. यामुळे वैद्यकीय सेटिंग्जमध्ये एक महत्त्वपूर्ण धोका निर्माण होतो, जिथे निदानात्मक त्रुटी किंवा चुकीच्या उपचार शिफारसी रुग्णांसाठी गंभीर परिणाम घडवू शकतात.

एआयवर (AI) जास्त अवलंबून राहण्याचा धोका

आणखी एक चिंता म्हणजे आरोग्य सेवा व्यावसायिक एआयवर (AI) जास्त अवलंबून राहण्याची आणि त्यांची गंभीर विचार कौशल्ये गमावण्याची शक्यता आहे. जर डॉक्टर आणि नर्स एआय (AI) आउटपुटला अचूक मानू लागले, तर ते रुग्णांच्या स्थितीचे पुरेसे मूल्यांकन करण्यात, महत्त्वाचे तपशील नजरेआड करण्यात किंवा एआयच्या (AI) शिफारसींवर प्रश्नचिन्ह उपस्थित करण्यात अयशस्वी ठरू शकतात. यामुळे निदानात्मक त्रुटी, अयोग्य उपचार आणि काळजीच्या गुणवत्तेत घट होऊ शकते.

शिवाय, एआयच्या (AI) व्यापक स्वीकारामुळे डेटा गोपनीयता, अल्गोरिदमिकBias आणि नोकरी विस्थापित होण्याची शक्यता याबद्दल नैतिक आणि सामाजिक प्रश्न निर्माण होतात. रुग्णांना त्यांच्या आरोग्य डेटाच्या सुरक्षिततेबद्दल आणि गोपनीयतेबद्दल चिंता वाटू शकते, विशेषत: जर तो एआय (AI) मॉडेलला प्रशिक्षित करण्यासाठी वापरला जात असेल तर. अल्गोरिदमिकBias विद्यमान आरोग्यविषयक असमानता वाढवू शकते जर एआय (AI) मॉडेल अशा डेटावर प्रशिक्षित केले गेले जे लोकसंख्येतील विविधतेचे अचूकपणे प्रतिनिधित्व करत नाही.

नवोपक्रम आणि सावधगिरी यांच्यात संतुलन साधणे

या धोक्यांना कमी करण्यासाठी, आरोग्यसेवेत एआयच्या (AI) एकत्रीकरणासाठी अधिक सावध आणि जबाबदार दृष्टीकोन स्वीकारणे महत्त्वाचे आहे. यामध्ये खालील गोष्टींचा समावेश आहे:

  • कठोर चाचणी आणि प्रमाणीकरण: क्लिनिकल सेटिंग्जमध्ये एआय (AI) मॉडेल तैनात करण्यापूर्वी, त्यांची अचूकता, विश्वसनीयता आणि निष्पक्षता सुनिश्चित करण्यासाठी विविध लोकसंख्येवर त्यांची कसून चाचणी आणि प्रमाणीकरण केले जावे.
  • मानवी देखरेख: एआयचा (AI) उपयोग मानवी निर्णयाला पूरक म्हणून केला गेला पाहिजे, त्याऐवजी त्याची जागा घेऊ नये. आरोग्य सेवा व्याव सायिकांनी वैद्यकीय निर्णय घेण्यापूर्वी एआय (AI) आउटपुटचे नेहमी पुनरावलोकन आणि पडताळणी केली पाहिजे.
  • पारदर्शकता आणि स्पष्टता: एआय (AI) मॉडेल पारदर्शक आणि स्पष्ट असणे आवश्यक आहे, जेणेकरून आरोग्य सेवा व्यावसायिकांना ते त्यांच्या शिफारसींवर कसे पोहोचतात हे समजू शकेल. यामुळे एआयवर (AI) विश्वास निर्माण करण्यास आणि संभाव्य त्रुटी किंवाBias ओळखण्यास मदत होऊ शकते.
  • डेटा गोपनीयता आणि सुरक्षा: रुग्णांच्या डेटाची गोपनीयता आणि सुरक्षा सुनिश्चित करण्यासाठी मजबूत उपाययोजना केल्या पाहिजेत. यामध्ये माहितीपूर्ण संमती प्राप्त करणे, मजबूत सुरक्षा उपाययोजना लागू करणे आणि डेटा संरक्षण नियमांचे पालन करणे यांचा समावेश आहे.
  • शिक्षण आणि प्रशिक्षण: आरोग्य सेवा व्यावसायिकांना एआयचा (AI) प्रभावीपणे आणि जबाबदारीने वापर कसा करावा याबद्दल सर्वसमावेशक प्रशिक्षण दिले जावे. यात एआयच्या (AI) मर्यादा समजून घेणे, संभाव्यBias ओळखणे आणि एआय (AI) आउटपुटचे गंभीरपणे मूल्यांकन करणे समाविष्ट आहे.

सायबर सुरक्षा असुरक्षा दूर करणे

हाँगकाँगच्या चीनी युनिव्हर्सिटीमधील संशोधकांनी निदर्शनास आणून दिलेल्या एआय (AI) एजंट्सच्या सायबर सुरक्षा असुरक्षा, आरोग्य सेवा प्रणालींच्या अखंडतेसाठी आणि सुरक्षिततेसाठी एक महत्त्वपूर्ण धोका आहे. जर एआय (AI) मॉडेल हल्ल्यांना बळी पडले, तर दुर्भावनापूर्ण कलाकार संभाव्यतः एआयचे (AI) आउटपुट हाताळू शकतात, संवेदनशील रुग्णांच्या डेटावर प्रवेश मिळवू शकतात किंवा आरोग्य सेवा कार्यांमध्ये व्यत्यय आणू शकतात.

या असुरक्षा दूर करण्यासाठी, मजबूत सायबर सुरक्षा उपाययोजना लागू करणे आवश्यक आहे, जसे की:

  • सुरक्षित कोडिंग पद्धती: SQL इंजेक्शन, क्रॉस-साइट स्क्रिप्टिंग आणि बफर ओव्हरफ्लो यांसारख्या असुरक्षा टाळण्यासाठी सुरक्षित कोडिंग पद्धती वापरून एआय (AI) मॉडेल विकसित केले जावेत.
  • नियमित सुरक्षा ऑडिट: संभाव्य असुरक्षा ओळखण्यासाठी आणि त्यांचे निराकरण करण्यासाठी एआय (AI) प्रणालींचे नियमित सुरक्षा ऑडिट केले जावे.
  • घुसखोरी शोध आणि प्रतिबंध प्रणाली: दुर्भावनापूर्ण क्रियाकलापांसाठी एआय (AI) प्रणालींचे निरीक्षण करण्यासाठी आणि अनधिकृत प्रवेशास प्रतिबंध करण्यासाठी घुसखोरी शोध आणि प्रतिबंध प्रणाली लागू केल्या जाव्यात.
  • डेटा एन्क्रिप्शन: संवेदनशील रुग्णांचा डेटा अनधिकृत प्रवेशापासून वाचवण्यासाठी तो प्रसारित करताना आणि विश्रांती घेताना एन्क्रिप्ट केला जावा.
  • प्रवेश नियंत्रण: एआय (AI) प्रणाली आणि डेटावर अधिकृत कर्मचाऱ्यांपर्यंत प्रवेश मर्यादित करण्यासाठी कठोर प्रवेश नियंत्रण लागू केले जावे.

नैतिक विचार

तांत्रिक आव्हानांव्यतिरिक्त, आरोग्यसेवेत एआयचे (AI) एकत्रीकरण अनेक महत्त्वाचे नैतिक विचार उभे करते. यात खालील गोष्टींचा समावेश आहे:

  • अल्गोरिदमिकBias: एआय (AI) मॉडेल विद्यमान आरोग्यविषयक असमानता वाढवू शकतात जर ते अशा डेटावर प्रशिक्षित केले गेले जे लोकसंख्येतील विविधतेचे अचूकपणे प्रतिनिधित्व करत नाही. एआय (AI) मॉडेल निष्पक्ष आणिBiasरहित आहेत याची खात्री करणे महत्त्वाचे आहे.
  • डेटा गोपनीयता: रुग्णांना त्यांच्या आरोग्य डेटाच्या गोपनीयतेबद्दल चिंता वाटू शकते, विशेषत: जर तो एआय (AI) मॉडेलला प्रशिक्षित करण्यासाठी वापरला जात असेल तर. माहितीपूर्ण संमती मिळवणे आणि रुग्णांच्या डेटाचे संरक्षण करणे आवश्यक आहे.
  • पारदर्शकता आणि स्पष्टता: एआय (AI) मॉडेल पारदर्शक आणि स्पष्ट असले पाहिजेत, जेणेकरून रुग्णांना ते त्यांच्या शिफारसींवर कसे पोहोचतात हे समजू शकेल. हे एआयवर (AI) विश्वास निर्माण करण्यास मदत करू शकते.
  • जबाबदारी: एआय (AI) प्रणालीद्वारे घेतलेल्या निर्णयांसाठी जबाबदारीच्या स्पष्ट ओळी स्थापित करणे महत्त्वाचे आहे. जर एआय (AI) मॉडेलने चुकीचे निदान केले किंवा अयोग्य उपचारांची शिफारस केली तर कोण जबाबदार असेल?

पुढील मार्ग

आरोग्यसेवेत एआयचे (AI) एकत्रीकरणामुळे रुग्णांची काळजी सुधारण्याची, खर्च कमी करण्याची आणि आरोग्य सेवा प्रणालींची कार्यक्षमता वाढवण्याची प्रचंड क्षमता आहे. तथापि, या एकत्रीकरणाकडे सावधगिरीने जाणे आणि संभाव्य धोके आणि आव्हाने संबोधित करणे महत्त्वाचे आहे. एक जबाबदार आणि नैतिक दृष्टीकोन स्वीकारून, आपण आरोग्यसेवेला अधिक चांगल्या प्रकारे रूपांतरित करण्यासाठी एआयच्या (AI) सामर्थ्याचा उपयोग करू शकतो.