Foresight: राष्ट्रीय स्तर का जेनरेटिव AI मॉडल
Foresight, जिसकी कल्पना 2023 में की गई थी, ने शुरू में OpenAI के GPT-3 का उपयोग किया, जो ChatGPT के पहले पुनरावृत्ति को रेखांकित करने वाली तकनीक थी, और इसे दो लंदन अस्पतालों के 1.5 मिलियन रोगी रिकॉर्ड पर प्रशिक्षित किया गया था। यूनिवर्सिटी कॉलेज लंदन के क्रिस टॉमलिंसन और उनकी टीम ने तब से Foresight का विस्तार किया है, इसे दुनिया का पहला “स्वास्थ्य डेटा का राष्ट्रीय स्तर का जेनरेटिव AI मॉडल” ब्रांड किया है। यह उन्नत संस्करण मेटा के ओपन-सोर्स LLM Llama 2 का लाभ उठाता है और नवंबर 2018 से दिसंबर 2023 तक NHS इंग्लैंड द्वारा नियमित रूप से जमा किए गए आठ अलग-अलग डेटासेट को शामिल करता है। इन डेटासेट में आउट पेशेंट अपॉइंटमेंट, अस्पताल में प्रवेश, टीकाकरण रिकॉर्ड और अन्य स्वास्थ्य संबंधी कार्यक्रम शामिल हैं, जो 57 मिलियन व्यक्तियों में 10 बिलियन डेटा पॉइंट हैं - अनिवार्य रूप से इंग्लैंड की पूरी आबादी।
चल रहे परीक्षण के कारण सार्वजनिक रूप से उपलब्ध प्रदर्शन मेट्रिक्स की कमी के बावजूद, टॉमलिंसन का कहना है कि Foresight अंततः व्यक्तिगत निदान की सुविधा प्रदान कर सकता है और व्यापक स्वास्थ्य रुझानों की भविष्यवाणी कर सकता है, जैसे कि अस्पताल में भर्ती होना या दिल का दौरा। उन्होंने 6 मई को एक प्रेस कॉन्फ्रेंस के दौरान मॉडल की क्षमता पर जोर दिया ताकि रोग जटिलताओं को पहले से रोका जा सके, जिससे प्रारंभिक हस्तक्षेप और पैमाने पर निवारक स्वास्थ्य सेवा की ओर बदलाव हो सके।
गोपनीयता और डेटा सुरक्षा चिंताएँ
इतने व्यापक चिकित्सा डेटा को AI मॉडल में फीड करने की संभावना ने गोपनीयता के बारे में चिंताएं बढ़ा दी हैं। हालांकि शोधकर्ताओं का दावा है कि AI को प्रशिक्षित करने से पहले सभी रिकॉर्ड “डी-आइडेंटिफाइड” थे, डेटा पैटर्न विश्लेषण के माध्यम से पुन: पहचान का जोखिम एक महत्वपूर्ण चिंता का विषय बना हुआ है, खासकर बड़े डेटासेट के साथ।
ऑक्सफोर्ड विश्वविद्यालय के ल्यूक रोचर शक्तिशाली जेनरेटिव AI मॉडल बनाते समय रोगी की गोपनीयता की रक्षा की निहित चुनौती पर प्रकाश डालते हैं। डेटा समृद्धि ही डेटा को AI उद्देश्यों के लिए मूल्यवान बनाती है, जिससे इसे गुमनाम करना अविश्वसनीय रूप से कठिन हो जाता है। रोचर सुरक्षित उपयोग सुनिश्चित करने के लिए इन मॉडलों पर सख्त NHS नियंत्रण की वकालत करते हैं।
NHS डिजिटल के माइकल चैपमैन डी-आइडेंटिफाइड डेटा के साथ भी पुन: पहचान के निहित जोखिम को स्वीकार करते हैं। जबकि प्रत्यक्ष पहचानकर्ता हटा दिए जाते हैं, स्वास्थ्य डेटा की समृद्धि पूरी गुमनामी की गारंटी देना मुश्किल बना देती है।
इस जोखिम का मुकाबला करने के लिए, चैपमैन ने कहा कि AI एक “सुरक्षित” NHS डेटा वातावरण के भीतर काम करता है, जिससे सूचना रिसाव प्रतिबंधित होता है और केवल स्वीकृत शोधकर्ताओं को ही पहुंच सुनिश्चित होती है। Amazon Web Services और Databricks कम्प्यूटेशनल अवसंरचना प्रदान करते हैं लेकिन डेटा तक नहीं पहुंच सकते हैं।
इंपीरियल कॉलेज लंदन के Yves-Alexandre de Montjoye संभावित सूचना रिसाव का पता लगाने के लिए प्रशिक्षण डेटा को याद रखने के लिए मॉडल की क्षमता को सत्यापित करने का सुझाव देते हैं। New Scientist द्वारा पूछे जाने पर, टॉमलिंसन ने स्वीकार किया कि Foresight टीम ने अभी तक ये परीक्षण नहीं किए हैं लेकिन भविष्य में ऐसा करने की योजना बनाई है।
सार्वजनिक विश्वास और डेटा उपयोग
ऑक्सफोर्ड विश्वविद्यालय की कैरोलीन ग्रीन विश्वास बनाए रखने के लिए जनता को डेटा उपयोग के बारे में संवाद करने के महत्व पर जोर देती हैं। गुमनामी के प्रयासों के बावजूद, लोग आमतौर पर अपने डेटा को नियंत्रित करना और उसके गंतव्य को समझना चाहते हैं, जिससे वे इसकी नैतिकता के बारे में बहुत दृढ़ता से महसूस करते हैं।
वर्तमान नियंत्रण Foresight द्वारा डेटा उपयोग से बाहर निकलने के लिए व्यक्तियों के लिए सीमित विकल्प प्रदान करते हैं। राष्ट्रीय स्तर पर एकत्र किए गए NHS डेटासेट से डेटा का उपयोग मॉडल को प्रशिक्षित करने के लिए किया जाता है, और मौजूदा ऑप्ट-आउट तंत्र लागू नहीं होते हैं क्योंकि NHS इंग्लैंड के एक प्रवक्ता के अनुसार डेटा को “डी-आइडेंटिफाइड” किया गया है। हालांकि, जिन व्यक्तियों ने अपने परिवार के डॉक्टर से डेटा साझा करने से ऑप्ट आउट किया है, उनका डेटा मॉडल में शामिल नहीं किया जाएगा।
GDPR और डेटा गुमनामी
जनरल डेटा प्रोटेक्शन रेगुलेशन (GDPR) अनिवार्य करता है कि व्यक्तियों के पास अपने व्यक्तिगत डेटा के उपयोग के लिए सहमति वापस लेने का विकल्प हो। हालांकि, Foresight जैसे LLM की प्रशिक्षण प्रक्रिया AI टूल से एक भी रिकॉर्ड को हटाना असंभव बना देती है। NHS इंग्लैंड के प्रवक्ता का दावा है कि GDPR लागू नहीं होता है क्योंकि मॉडल को प्रशिक्षित करने के लिए उपयोग किया जाने वाला डेटा गुमनाम है और व्यक्तिगत डेटा का गठन नहीं करता है।
UK सूचना आयुक्त कार्यालय की वेबसाइट स्पष्ट करती है कि “डी-आइडेंटिफाइड” डेटा का उपयोग गुमनाम डेटा के साथ परस्पर विनिमय नहीं किया जाना चाहिए, क्योंकि UK डेटा संरक्षण कानून शब्द को परिभाषित नहीं करता है, और इसके उपयोग से भ्रम हो सकता है।
कानूनी स्थिति COVID-19 से संबंधित अनुसंधान के लिए Foresight के वर्तमान उपयोग से और जटिल हो गई है, जो medConfidential के सैम स्मिथ के अनुसार, महामारी के दौरान अधिनियमित डेटा संरक्षण कानूनों के अपवादों की अनुमति देता है। स्मिथ का दावा है कि COVID-ओनली AI में संभावित रूप से एम्बेडेड रोगी डेटा है जिसे लैब नहीं छोड़ना चाहिए, और रोगियों को अपने डेटा उपयोग पर नियंत्रण रखना चाहिए।
नैतिक विचार
AI विकास के लिए चिकित्सा डेटा के उपयोग से संबंधित नैतिक विचार Foresight को एक अनिश्चित स्थिति में रखते हैं। ग्रीन का तर्क है कि नैतिकता और मानवीय विचारों को AI विकास के लिए शुरुआती बिंदु होना चाहिए, न कि बाद का विचार।
चिंताओं की गहराई से जांच करना
NHS चिकित्सा अभिलेखों के Foresight के उपयोग से संबंधित चिंताएं केवल डेटा गोपनीयता से परे हैं। वे व्यक्तिगत स्वास्थ्य जानकारी के स्वामित्व, एल्गोरिथम पूर्वाग्रह की संभावना और डॉक्टर-रोगी संबंध पर AI के दीर्घकालिक प्रभाव के बारे में मौलिक सवालों को छूते हैं।
स्वास्थ्य डेटा का स्वामित्व और नियंत्रण
मूल नैतिक दुविधाओं में से एक यह है कि व्यक्तियों को अपने स्वयं के स्वास्थ्य डेटा पर कितना नियंत्रण होना चाहिए। जबकि NHS को प्रभावी देखभाल प्रदान करने के लिए निस्संदेह रोगी जानकारी तक पहुंच की आवश्यकता होती है, AI प्रशिक्षण के लिए इस डेटा का उपयोग इस बारे में सवाल उठाता है कि क्या व्यक्तियों को इस तरह के माध्यमिक उपयोगों के बारे में पर्याप्त रूप से सूचित किया जाता है और सहमति देने के लिए सशक्त किया जाता है।
वर्तमान ऑप्ट-आउट तंत्र अपर्याप्त हैं, क्योंकि वे AI प्रशिक्षण की जटिलताओं को पूरी तरह से संबोधित नहीं करते हैं। यह तर्क कि डी-आइडेंटिफाइड डेटा अब GDPR के तहत व्यक्तिगत डेटा नहीं है, एक कानूनी व्याख्या है जो इस वास्तविकता को अनदेखा करती है कि यहां तक कि गुमनाम डेटा को भी संभावित रूप से पुन: पहचाना जा सकता है या व्यक्तियों के बारे में निष्कर्ष निकालने के लिए उपयोग किया जा सकता है।
एक अधिक मजबूत दृष्टिकोण में सूचित सहमति की एक प्रणाली को लागू करना शामिल होगा जो स्पष्ट रूप से बताता है कि AI अनुसंधान और विकास के लिए रोगी डेटा का उपयोग कैसे किया जा सकता है। इसके लिए इस तरह के उपयोगों के संभावित लाभों और जोखिमों की स्पष्ट और सुलभ व्याख्याओं की आवश्यकता होगी, साथ ही व्यक्तियों को ऑप्ट-इन या ऑप्ट-आउट करने का एक सार्थक अवसर प्रदान किया जाएगा।
एल्गोरिथम पूर्वाग्रह
एक और महत्वपूर्ण चिंता बड़े डेटासेट पर प्रशिक्षित AI मॉडल में एल्गोरिथम पूर्वाग्रह की संभावना है। यदि Foresight को प्रशिक्षित करने के लिए उपयोग किया जाने वाला डेटा मौजूदा स्वास्थ्य असमानताओं को दर्शाता है, तो मॉडल इन असमानताओं को बनाए रख सकता है और यहां तक कि बढ़ा भी सकता है।
उदाहरण के लिए, यदि डेटासेट में कुछ जनसांख्यिकीय समूहों का प्रतिनिधित्व कम है या यदि उनकी चिकित्सा स्थितियों का गलत निदान या कम इलाज किया जाता है, तो AI इन समूहों के लिए बीमारी या अस्पताल में भर्ती होने की भविष्यवाणी करने में कम सटीक हो सकता है। इससे स्वास्थ्य सेवा संसाधनों तक असमान पहुंच हो सकती है और संभावित रूप से मौजूदा स्वास्थ्य असमानताओं को और बढ़ाया जा सकता है।
एल्गोरिथम पूर्वाग्रह के जोखिम को कम करने के लिए, Foresight को प्रशिक्षित करने के लिए उपयोग किए जाने वाले डेटा का सावधानीपूर्वक विश्लेषण करना और किसी भी संभावित पूर्वाग्रह की पहचान और समाधान करना आवश्यक है। इसमें कम प्रतिनिधित्व वाले समूहों का ओवरसैम्पलिंग, डेटा में गलतियों को ठीक करना और एल्गोरिदम विकसित करना शामिल हो सकता है जो विशेष रूप से निष्पक्ष और न्यायसंगत होने के लिए डिज़ाइन किए गए हैं।
डॉक्टर-रोगी संबंध पर प्रभाव
स्वास्थ्य सेवा में AI के बढ़ते उपयोग में पारंपरिक डॉक्टर-रोगी संबंध को गहन तरीकों से बदलने की क्षमता है। जबकि AI निस्संदेह डॉक्टरों को अधिक सूचित निर्णय लेने में मदद कर सकता है, यह सुनिश्चित करना महत्वपूर्ण है कि यह देखभाल के मानवीय तत्व को प्रतिस्थापित न करे।
मरीजों को यह विश्वास होना चाहिए कि उनके डॉक्टर AI का उपयोग अपने नैदानिक निर्णय को बढ़ाने के लिए एक उपकरण के रूप में कर रहे हैं, न कि इसके विकल्प के रूप में। डॉक्टर-रोगी संबंध विश्वास, सहानुभूति और साझा निर्णय लेने में से एक रहना चाहिए।
डॉक्टर-रोगी संबंध की रक्षा के लिए, स्वास्थ्य सेवा में मानव संपर्क और संचार के महत्व पर जोर देना महत्वपूर्ण है। डॉक्टरों को अपनी निर्णय लेने की प्रक्रिया में AI की भूमिका को प्रभावी ढंग से संप्रेषित करने और मरीजों की किसी भी चिंता को दूर करने के लिए प्रशिक्षित किया जाना चाहिए।
आगे का रास्ता खोजना
स्वास्थ्य सेवा में AI से संबंधित जटिल नैतिक और कानूनी परिदृश्य को नेविगेट करने के लिए एक बहुआयामी दृष्टिकोण की आवश्यकता है।
- पारदर्शिता और सार्वजनिक जुड़ाव: खुले तौर पर संवाद करें कि रोगी डेटा का उपयोग कैसे किया जाता है और स्वास्थ्य सेवा में AI के नैतिक निहितार्थों के बारे में चर्चाओं में जनता को शामिल करें।
- डेटा सुरक्षा को मजबूत करना: पुन: पहचान के जोखिम को कम करने के लिए सख्त डेटा सुरक्षा उपायों को लागू करें और सुनिश्चित करें कि व्यक्तियों को अपने स्वास्थ्य डेटा पर अधिक नियंत्रण हो।
- एल्गोरिथम पूर्वाग्रह को संबोधित करना: सभी के लिए स्वास्थ्य सेवा तक समान पहुंच सुनिश्चित करने के लिए AI मॉडल में सक्रिय रूप से एल्गोरिथम पूर्वाग्रह की पहचान करें और उसे कम करें।
- मानव-केंद्रित देखभाल को प्राथमिकता देना: डॉक्टर-रोगी संबंध के महत्व पर जोर दें और सुनिश्चित करें कि AI का उपयोग मानव संपर्क को बढ़ाने के लिए एक उपकरण के रूप में किया जाता है, न कि उसे बदलने के लिए।
इन चिंताओं को दूर करके, हम रोगी गोपनीयता की रक्षा करते हुए, इक्विटी को बढ़ावा देते हुए और देखभाल के मानवीय तत्व को संरक्षित करते हुए स्वास्थ्य सेवा में AI की परिवर्तनकारी क्षमता का उपयोग कर सकते हैं। स्वास्थ्य सेवा का भविष्य इन चुनौतियों को जिम्मेदारी से और नैतिकतापूर्वक नेविगेट करने की हमारी क्षमता पर निर्भर करता है। तभी हम यह सुनिश्चित कर सकते हैं कि AI वास्तव में रोगियों और समाज के सर्वोत्तम हितों की सेवा करता है।