NHS डेटावरील AI मॉडेल: गोपनीयतेची चिंता

Foresight: राष्ट्रीय स्तरावरील जनरेटिव्ह AI मॉडेल

Foresight, 2023 मध्ये तयार करण्यात आले, सुरुवातीला OpenAI च्या GPT-3 चा वापर केला, हे ChatGPT च्या पहिल्या आवृत्तीतील तंत्रज्ञान होते आणि ते लंडनच्या दोन हॉस्पिटलमधील 1.5 दशलक्ष रुग्णांच्या नोंदीवर प्रशिक्षित केले गेले. युनिव्हर्सिटी कॉलेज लंडनचे ख्रिस टॉमलिन्सन आणि त्यांच्या टीमने Foresight चा विस्तार केला आहे, याला जगातील पहिले "राष्ट्रीय-स्तरीय जनरेटिव्ह AI मॉडेल ऑफ हेल्थ डेटा" असे नाव दिले आहे. या सुधारित आवृत्तीमध्ये Meta चे ओपन-सोर्स LLM Llama 2 वापरले आहे आणि इंग्लंडमधील NHS द्वारे नोव्हेंबर 2018 ते डिसेंबर 2023 पर्यंत नियमितपणे जमा केलेले आठ विशिष्ट डेटासेट समाविष्ट आहेत. या डेटासेटमध्ये बाह्यरुग्ण भेटी, हॉस्पिटलमध्ये दाखल करणे, लसीकरण नोंदी आणि इतर आरोग्य-संबंधित घटनांचा समावेश आहे, ज्यात 57 दशलक्ष लोकांमध्ये 10 अब्ज डेटा पॉइंट्स आहेत - म्हणजेच इंग्लंडची संपूर्ण लोकसंख्या.

सध्या चाचणी चालू असल्यामुळे सार्वजनिकरित्या उपलब्ध कार्यप्रदर्शन मेट्रिक्सचा अभाव असूनही, टॉमलिन्सन यांनी असा दावा केला आहे की Foresight वैयक्तिक निदान सुलभ करू शकते आणि हॉस्पिटलमध्ये दाखल करणे किंवा हृदयविकाराचे झटके यासारख्या व्यापक आरोग्य ट्रेंडचा अंदाज लावू शकते. 6 मे रोजी झालेल्या पत्रकार परिषदेत त्यांनी मॉडेलमध्ये रोग गुंतागुंत लवकर ओळखण्याची क्षमता आहे, ज्यामुळे लवकर हस्तक्षेप करणे आणि मोठ्या प्रमाणात प्रतिबंधात्मक आरोग्यसेवेकडे वळण्यास मदत होईल, असे सांगितले.

गोपनीयता आणि डेटा संरक्षणासंबंधी चिंता

एवढ्या मोठ्या प्रमाणात वैद्यकीय डेटा AI मॉडेलमध्ये टाकण्याच्या शक्यतेने गोपनीयतेबद्दल चिंता वाढवली आहे. संशोधकांनी दावा केला आहे की AI ला प्रशिक्षण देण्यापूर्वी सर्व नोंदी "अनामित" केल्या गेल्या, तरीही डेटा पॅटर्न विश्लेषणाद्वारे पुन्हा ओळखले जाण्याचा धोका अजूनही आहे, विशेषत: मोठ्या डेटासेटमध्ये.

ऑक्सफर्ड विद्यापीठातील ल्यूक रोचर यांनी शक्तिशाली जनरेटिव्ह AI मॉडेल तयार करताना रुग्णांची गोपनीयता जपण्याच्या मूलभूत आव्हानावर प्रकाश टाकला आहे. AI साठी डेटा जितका मौल्यवान असतो, तितकेच ते अनामिक करणे देखील कठीण असते. रोचर सुरक्षित वापर सुनिश्चित करण्यासाठी या मॉडेलवर NHS च्या कठोर नियंत्रणाची वकिली करतात.

NHS डिजिटलचे मायकल चॅपमन यांनी कबूल केले की अनामित डेटामध्येही पुन्हा ओळखले जाण्याचा धोका असतो. थेट ओळख काढून टाकली जात असली तरी, आरोग्य डेटाची समृद्धता पूर्णपणे अनामिकता सुनिश्चित करणे कठीण करते.

हा धोका कमी करण्यासाठी, चॅपमन यांनी सांगितले की AI "सुरक्षित" NHS डेटा वातावरणात कार्य करते, माहिती गळती प्रतिबंधित करते आणि केवळ मंजूर संशोधकांनाच प्रवेश सुनिश्चित करते. Amazon Web Services आणि Databricks संगणकीय पायाभूत सुविधा पुरवतात परंतु डेटा एक्सेस करू शकत नाहीत.

इंपीरियल कॉलेज लंडनचे Yves-Alexandre de Montjoye यांनी संभाव्य माहिती गळती शोधण्यासाठी प्रशिक्षण डेटा लक्षात ठेवण्याची मॉडेलची क्षमता तपासण्याचे सुचवले आहे. _न्यू सायंटिस्ट_ने विचारलेल्या प्रश्नाला उत्तर देताना टॉमलिन्सन यांनी कबूल केले की Foresight टीमने अद्याप ही चाचणी केली नाही, परंतु भविष्यात ती करण्याची योजना आहे.

सार्वजनिक विश्वास आणि डेटा वापर

ऑक्सफर्ड विद्यापीठातील कॅरोलिन ग्रीन यांनी लोकांचा विश्वास टिकवून ठेवण्यासाठी डेटा वापराची माहिती देण्याचे महत्त्व सांगितले आहे. अनामिकता प्रयत्नांनंतरही, लोकांना सामान्यत: त्यांच्या डेटावर नियंत्रण ठेवायचे असते आणि त्याचे गंतव्यस्थान काय आहे हे समजून घ्यायचे असते, ज्यामुळे ते त्याच्या नैतिकतेबद्दल खूप गंभीर असतात.

Foresight द्वारे डेटा वापरासाठी निवड रद्द करण्यासाठी सध्याच्या नियंत्रणांमध्ये मर्यादित पर्याय आहेत. राष्ट्रीय स्तरावर गोळा केलेल्या NHS डेटासेटमधील डेटा मॉडेलला प्रशिक्षित करण्यासाठी वापरला जातो आणि NHS इंग्लंडच्या प्रवक्त्यानुसार, विद्यमान निवड रद्द करण्याची यंत्रणा लागू होत नाही कारण डेटा "अनामित" केला गेला आहे. तथापि, ज्या व्यक्तींनी त्यांच्या फॅमिली डॉक्टरकडून डेटा शेअर करणे निवडले नाही, त्यांचा डेटा मॉडेलमध्ये समाविष्ट केला जाणार नाही.

GDPR आणि डेटा अनामिकीकरण

जनरल डेटा प्रोटेक्शन रेग्युलेशन (GDPR) मध्ये व्यक्तींना त्यांच्या वैयक्तिक डेटाच्या वापरासाठी संमती मागे घेण्याचा पर्याय असणे आवश्यक आहे. तथापि, Foresight सारख्या LLM च्या प्रशिक्षण प्रक्रियेमुळे AI टूलमधून एकही रेकॉर्ड काढणे शक्य होत नाही. NHS इंग्लंडच्या प्रवक्त्याने असा दावा केला आहे की GDPR लागू होत नाही कारण मॉडेलला प्रशिक्षित करण्यासाठी वापरलेला डेटा अनामित आहे आणि तो वैयक्तिक डेटा नाही.

UK माहिती आयुक्तांच्या कार्यालयाच्या वेबसाइटवर स्पष्ट केले आहे की "अनामित" डेटा匿名 डेटा म्हणून वापरला जाऊ नये, कारण UK डेटा संरक्षण कायद्यात या शब्दाची व्याख्या नाही आणि त्याच्या वापरामुळे गोंधळ होऊ शकतो.

सॅम स्मिथ ऑफ मेडकॉन्फिडेंशियल यांच्या मते, कोविड-19 संबंधित संशोधनासाठी Foresight चा सध्याचा वापर कायदेशीर स्थिती अधिक गुंतागुंतीची करतो, ज्यामुळे महामारीच्या काळात लागू केलेल्या डेटा संरक्षण कायद्यांना अपवाद मिळतो. स्मिथ यांचा दावा आहे की कोविड-ओन्ली AI मध्ये एम्बेडेड रुग्णांचा डेटा असण्याची शक्यता आहे, जो प्रयोगशाळेतून बाहेर येऊ नये आणि रुग्णांना त्यांच्या डेटा वापरावर नियंत्रण ठेवता आले पाहिजे.

नैतिक विचार

AI विकासासाठी वैद्यकीय डेटाच्या वापराशी संबंधित नैतिक विचार Foresight ला एका नाजूक स्थितीत ठेवतात. ग्रीन यांचा युक्तिवाद आहे की AI विकासासाठी नैतिकता आणि मानवी विचार हा सुरुवातीचा मुद्दा असावा, नंतरचा विचार नसावा.

चिंतांचे अधिक सखोल परीक्षण

NHS वैद्यकीय नोंदींच्या Foresight च्या वापराशी संबंधित चिंता केवळ डेटा गोपनीयतेच्या पलीकडे आहेत. ते वैयक्तिक आरोग्य माहितीच्या मालकीबद्दल, अल्गोरिदममधील पक्षपाताची शक्यता आणि डॉक्टर-रुग्ण संबंधांवर AI च्या दीर्घकालीन परिणामांबद्दल मूलभूत प्रश्न विचारतात.

आरोग्य डेटाची मालकी आणि नियंत्रण

एक प्रमुख नैतिक कोंडी म्हणजे व्यक्तींना त्यांच्या स्वतःच्या आरोग्य डेटावर किती नियंत्रण असावे. प्रभावी काळजी प्रदान करण्यासाठी NHS ला निश्चितपणे रुग्णांच्या माहितीवर प्रवेश आवश्यक आहे, परंतु AI प्रशिक्षणासाठी या डेटाचा वापर केल्याने व्यक्तींना अशा दुय्यम उपयोगांबद्दल पुरेशी माहिती दिली जाते आणि संमती देण्यास सक्षम केले जाते की नाही याबद्दल प्रश्न निर्माण होतात.

सध्याची निवड रद्द करण्याची यंत्रणा अपुरी आहे, कारण ती AI प्रशिक्षणाच्या गुंतागुंतीला पूर्णपणे संबोधित करत नाही. GDPR अंतर्गत अनामित डेटा यापुढे वैयक्तिक डेटा नाही हा युक्तिवाद एक कायदेशीर अर्थ आहे जो या वास्तवाकडे दुर्लक्ष करतो की अनामित डेटा देखील संभाव्यतः पुन्हा ओळखला जाऊ शकतो किंवा व्यक्तींबद्दल अनुमान काढण्यासाठी वापरला जाऊ शकतो.

अधिक मजबूत दृष्टिकोन म्हणजे माहितीपूर्ण संमती प्रणाली लागू करणे, ज्यात रुग्ण डेटा AI संशोधन आणि विकासासाठी कसा वापरला जाऊ शकतो हे स्पष्टपणे नमूद केले जाईल. यासाठी अशा वापराच्या संभाव्य फायदे आणि धोक्यांचे स्पष्ट आणि सुलभ स्पष्टीकरण आवश्यक असेल, तसेच व्यक्तींना निवड रद्द करण्याची किंवा निवडण्याची अर्थपूर्ण संधी मिळेल.

अल्गोरिदममधील पक्षपात

आणखी एक महत्त्वाची चिंता म्हणजे मोठ्या डेटासेटवर प्रशिक्षित केलेल्या AI मॉडेलमध्ये अल्गोरिदममधील पक्षपाताची शक्यता. Foresight ला प्रशिक्षित करण्यासाठी वापरलेला डेटा विद्यमान आरोग्य विषमतेचे प्रतिबिंब दर्शवत असेल, तर मॉडेल या असमानता कायम ठेवू शकते आणि वाढवू शकते.

उदाहरणार्थ, विशिष्ट लोकसंख्याशास्त्रीय गट डेटासेटमध्ये कमी प्रमाणात दर्शविले गेले असल्यास किंवा त्यांच्या वैद्यकीय स्थितीचे चुकीचे निदान झाले असल्यास किंवा त्यांच्यावर कमी उपचार केले गेले असल्यास, AI या गटांसाठी रोग किंवा हॉस्पिटलायझेशनचा अंदाज लावण्यात कमी अचूक असू शकते. यामुळे आरोग्य सेवा संसाधनांमध्ये असमान प्रवेश होऊ शकतो आणि संभाव्यतः विद्यमान आरोग्य असमानता वाढू शकतात.

अल्गोरिदममधील पक्षपाताचा धोका कमी करण्यासाठी, Foresight ला प्रशिक्षित करण्यासाठी वापरलेल्या डेटाचे काळजीपूर्वक विश्लेषण करणे आणि संभाव्य पक्षपात ओळखणे आणि त्याचे निराकरण करणे आवश्यक आहे. यामध्ये कमी प्रतिनिधित्व असलेल्या गटांचे जास्त नमुने घेणे, डेटामधील त्रुटी सुधारणे आणि निष्पक्ष आणि न्याय्य बनविण्यासाठी विशेषतः डिझाइन केलेले अल्गोरिदम विकसित करणे समाविष्ट असू शकते.

डॉक्टर-रुग्ण संबंधांवर परिणाम

आरोग्यसेवेत AI चा वाढता वापर पारंपारिक डॉक्टर-रुग्ण संबंधांमध्ये सखोल बदल घडवून आणण्याची क्षमता आहे. AI डॉक्टरांना अधिक माहितीपूर्ण निर्णय घेण्यात मदत करू शकत असले तरी, ते काळजीच्या मानवी घटकाची जागा घेत नाही याची खात्री करणे महत्त्वाचे आहे.

रुग्णांना खात्री असणे आवश्यक आहे की त्यांचे डॉक्टर AI चा उपयोग त्यांच्या नैदानिक ​​निर्णयाला बळकट करण्यासाठी एक साधन म्हणून करत आहेत, त्याची जागा म्हणून नाही. डॉक्टर-रुग्ण संबंध विश्वास, सहानुभूती आणि सामायिक निर्णय घेण्याचा असावा.

डॉक्टर-रुग्ण संबंधांचे संरक्षण करण्यासाठी, आरोग्यसेवेत मानवी संवाद आणि संवादाच्या महत्त्वावर जोर देणे महत्त्वाचे आहे. डॉक्टरांना त्यांच्या निर्णय प्रक्रियेत AI ची भूमिका प्रभावीपणे संवाद साधण्यासाठी आणि रुग्णांना असलेल्या कोणत्याही समस्यांचे निराकरण करण्यासाठी प्रशिक्षित केले जावे.

पुढे जाण्याचा मार्ग शोधणे

आरोग्यसेवेतील AI च्या आसपासच्या गुंतागुंतीच्या नैतिक आणि कायदेशीर परिदृश्यातून मार्ग काढण्यासाठी बहुआयामी दृष्टीकोन आवश्यक आहे.

  • पारदर्शकता आणि सार्वजनिक सहभाग: रुग्णांचा डेटा कसा वापरला जातो हे उघडपणे सांगा आणि आरोग्यसेवेतील AI च्या नैतिक परिणामांबद्दल सार्वजनिक चर्चेत सहभागी व्हा.
  • डेटा संरक्षणाला बळकटी देणे: पुन्हा ओळखले जाण्याचा धोका कमी करण्यासाठी कठोर डेटा संरक्षण उपाय अंमलात आणा आणि व्यक्तींना त्यांच्या आरोग्य डेटावर अधिक नियंत्रण असल्याची खात्री करा.
  • अल्गोरिदममधील पक्षपाताचे निराकरण: सर्वांसाठी आरोग्यसेवेमध्ये समान प्रवेश सुनिश्चित करण्यासाठी AI मॉडेलमधील अल्गोरिदममधील पक्षपात सक्रियपणे ओळखा आणि कमी करा.
  • मानव-केंद्रित काळजीला प्राधान्य देणे: डॉक्टर-रुग्ण संबंधाच्या महत्त्वावर जोर द्या आणि AI चा उपयोग मानवी संवाद वाढवण्यासाठी केला जाईल, त्याची जागा घेण्यासाठी नाही याची खात्री करा.

या चिंतांचे निराकरण करून, आम्ही रुग्ण गोपनीयता जपत, समानतेला प्रोत्साहन देत आणि काळजीचा मानवी घटक जतन करत आरोग्यसेवेतील AI च्याtransformative क्षमतेचा उपयोग करू शकतो. आरोग्यसेवेचे भविष्य या आव्हानांना जबाबदारीने आणि नैतिकतेने सामोरे जाण्याच्या आपल्या क्षमतेवर अवलंबून आहे. तरच आपण खात्री करू शकतो की AI खऱ्या अर्थाने रुग्ण आणि समाजाच्या हिताचे रक्षण करते.