சீன மருத்துவமனைகளில் DeepSeek AI பயன்பாடு கவலைகள்

சீன மருத்துவமனைகளில் DeepSeek AI பயன்பாடு கவலைகள்

சீன ஆராய்ச்சியாளர்கள் குழு, மருத்துவமனை அமைப்புகளில் DeepSeek எனும் செயற்கை நுண்ணறிவு மாதிரியை விரைவாக ஒருங்கிணைப்பது குறித்து கவலை தெரிவித்துள்ளது. குறிப்பாக, தொடக்க நிறுவனத்தின் மலிவான திறந்த மூல மாதிரிகளைப் பரவலாகப் பயன்படுத்துவதால், மருத்துவப் பாதுகாப்பு மற்றும் தரவு தனியுரிமைக்கு ஏற்படக்கூடிய ஆபத்துகளை அவர்களின் பகுப்பாய்வு எடுத்துக்காட்டுகிறது.

மார்ச் மாத தொடக்கத்தில், DeepSeek-இன் பெரிய மொழி மாதிரிகள் (LLMகள்) குறைந்தது 300 சீன மருத்துவமனைகளில் மருத்துவ நோயறிதல் மற்றும் மருத்துவ முடிவு ஆதரவுக்காக ஏற்கனவே பயன்படுத்தப்பட்டு வந்தன.

அமெரிக்க மருத்துவ சங்கத்தின் இதழில் (JAMA) வெளியிடப்பட்ட ஆராய்ச்சி கட்டுரை, DeepSeek-இன் வெளியீடுகளை நம்பகமானதாக தோன்றினாலும் உண்மையில் தவறான தகவல்களை உருவாக்குவதற்கான விருப்பத்தைக் காட்டுகிறது. AI-யின் வலுவான பகுத்தறிவு திறன்கள் இருந்தபோதிலும், இது குறிப்பிடத்தக்க மருத்துவ அபாயங்களை உருவாக்கக்கூடும். பெய்ஜிங்கில் உள்ள சிங்ஹுவா பல்கலைக்கழகத்தின் ஆராய்ச்சி பிரிவான சிங்ஹுவா மருத்துவத்தின் ஸ்தாபகத் தலைவர் வோங் தியன் யின், ஆராய்ச்சி குழுவின் உறுப்பினராக உள்ளார்.

இந்த எச்சரிக்கை குறிப்பு, சீனாவில் DeepSeek-க்கான பரவலான ஆர்வத்திற்கு மாறாக உள்ளது. மலிவான மற்றும் உயர் செயல்திறன் கொண்ட V3 மற்றும் R1 மாடல்களுக்காக கொண்டாடப்படும் இந்த ஸ்டார்ட்-அப், சீனாவின் AI முன்னேற்றங்களின் அடையாளமாக மாறியுள்ளது.

சுகாதார நிபுணர்கள் DeepSeek-இன் வெளியீடுகளை விமர்சனமின்றி அதிகமாக நம்பி அல்லது ஏற்றுக்கொள்வதால் ஏற்படக்கூடிய ஆபத்தை வோங் மற்றும் அவரது இணை ஆசிரியர்கள் வலியுறுத்தினர். இது நோயறிதலில் பிழைகள் அல்லது பாரபட்சமான சிகிச்சை திட்டங்களுக்கு வழிவகுக்கும். மாறாக, எச்சரிக்கையாக இருக்கும் மருத்துவர்கள் நேரக் கட்டுப்பாடுகளின் கீழ் AI வெளியீடுகளை சரிபார்க்க வேண்டிய கூடுதல் சுமையை எதிர்கொள்வார்கள்.

ஆன்-சைட் வரிசைப்படுத்தலில் பாதுகாப்பு அபாயங்கள்

பாதுகாப்பு மற்றும் தனியுரிமை தொடர்பான அபாயங்களைக் குறைக்க மருத்துவமனைகள் பெரும்பாலும் DeepSeek மாதிரிகளை தனிப்பட்ட முறையில் ஆன்-சைட்டில் வரிசைப்படுத்த தேர்வு செய்கையில், இந்த அணுகுமுறை அதன் சொந்த சிக்கல்களை அறிமுகப்படுத்துகிறது. ஆராய்ச்சியாளர்களின் கூற்றுப்படி, இது “பாதுகாப்புப் பொறுப்புகளை தனிப்பட்ட சுகாதார வசதிகளுக்கு மாற்றுகிறது,” அவற்றில் பல தேவையான சைபர் பாதுகாப்பு பாதுகாப்புகளை கொண்டிருக்கவில்லை.

போதுமான முதன்மை பராமரிப்பு உள்கட்டமைப்பு மற்றும் சீனாவில் பரவலான ஸ்மார்ட்போன் பயன்பாடு ஆகியவை மருத்துவ பாதுகாப்பு குறித்த கவலைகளை அதிகப்படுத்தும் “சரியான புயலை” உருவாக்குகின்றன என்றும் ஆராய்ச்சியாளர்கள் குறிப்பிட்டுள்ளனர்.

ஆராய்ச்சியாளர்கள் கூறுகையில், “சிக்கலான மருத்துவ தேவைகள் உள்ள பின்தங்கிய மக்களுக்கு இப்போது AI-உந்துதல் சுகாதார பரிந்துரைகளுக்கு முன்னோடியில்லாத அணுகல் உள்ளது, ஆனால் பாதுகாப்பான செயல்படுத்தலுக்கு தேவையான மருத்துவ மேற்பார்வை பெரும்பாலும் இல்லை.”

சுகாதார அமைப்புகளில் LLM-களின் ஆய்வு

இந்தக் கட்டுரை மருத்துவ மற்றும் மருத்துவ அமைப்புகளில் LLM-களைப் பயன்படுத்துவது குறித்த வளர்ந்து வரும் உரையாடல்களுக்கு பங்களிக்கிறது. சீனாவில் மற்ற நிறுவனங்களும் LLM-களை ஏற்றுக்கொள்வது வேகமடைந்துள்ளதால் அவற்றை ஆய்வு செய்யத் தொடங்கியுள்ளன. ஹாங்காங் சீனப் பல்கலைக்கழகத்தைச் சேர்ந்த ஆராய்ச்சியாளர்கள் கடந்த மாதம் வெளியிட்ட மற்றொரு கட்டுரை, AI ஏஜென்ட்களின் சைபர் பாதுகாப்பு பாதிப்புகளை ஆய்வு செய்தது, மேலும் பொதுவாகப் பயன்படுத்தப்படும் LLM-களால் இயக்கப்படும் அவை பல்வேறு தாக்குதல்களுக்கு ஆளாகின்றன, இதில் DeepSeek-R1 மிகவும் பாதிக்கப்படக்கூடியது என கண்டறியப்பட்டது.

ஜெனரேட்டிவ் AI தொழில்நுட்பங்களின் எழுச்சிக்கு மத்தியில் சீனா சுகாதாரப் பாதுகாப்பில் LLM-களை ஏற்றுக்கொள்வதை விரைவுபடுத்தியுள்ளது. கடந்த மாதம், சீன நிதி தொழில்நுட்ப நிறுவனமான Ant Group, அதன் Alipay கட்டண பயன்பாட்டில் கிட்டத்தட்ட 100 AI மருத்துவ ஏஜென்ட்களை அறிமுகப்படுத்தியது. இந்த ஏஜென்ட்கள் முக்கிய சீன மருத்துவமனைகளில் இருந்து வரும் மருத்துவ வல்லுநர்களால் ஆதரிக்கப்படுகின்றன.

சிங்ஹுவா பல்கலைக்கழகத்தில் தொடங்கப்பட்ட Tairex என்ற ஸ்டார்ட்-அப் நிறுவனம் நவம்பரில் ஒரு மெய்நிகர் மருத்துவமனை தளத்தின் உள் சோதனையைத் தொடங்கியது. இந்த தளத்தில் அவசர, சுவாச, குழந்தை மருத்துவம் மற்றும் இதயவியல் உள்ளிட்ட 21 துறைகளை உள்ளடக்கிய 42 AI டாக்டர்கள் உள்ளனர். இந்த தளத்தை ஆண்டின் பிற்பகுதியில் பொதுமக்களுக்கு அறிமுகப்படுத்த திட்டமிட்டுள்ளதாக நிறுவனம் தெரிவித்துள்ளது.

சுகாதாரப் பாதுகாப்பில் AI-ஐச் சுற்றியுள்ள கவலைகளை ஆழமாக ஆராய்தல்

AI-ஐ, குறிப்பாக DeepSeek போன்ற பெரிய மொழி மாதிரிகளை (LLMகள்) சீனாவில் சுகாதார அமைப்புகளில் விரைவாக ஒருங்கிணைப்பது, அதன் சாத்தியமான நன்மைகளை ஆதரிப்பவர்களுக்கும் எச்சரிக்கையுடன் இருக்க அறிவுறுத்துபவர்களுக்கும் இடையே ஒரு விவாதத்தைத் தூண்டியுள்ளது. AI நோயறிதல், சிகிச்சை மற்றும் மருத்துவப் பாதுகாப்பு அணுகலை மேம்படுத்துவதற்கான அற்புதமான சாத்தியக்கூறுகளை வழங்கினாலும், பல காரணிகள் மிகவும் அளவிடப்பட்ட அணுகுமுறையை நியாயப்படுத்துகின்றன. ஆராய்ச்சியாளர்கள் எழுப்பிய கவலைகள், இதுபோன்ற முக்கியமான களத்தில் AI-ஐ பயன்படுத்துவதன் சிக்கல்கள் மற்றும் சாத்தியமான ஆபத்துகளை எடுத்துக்காட்டுகின்றன.

AI உருவாக்கும் தகவல்களின் நம்பகத்தன்மையே முதன்மையான கவலைகளில் ஒன்றாகும். LLMகள் பரந்த தரவுத் தொகுப்புகளில் பயிற்சி அளிக்கப்படுகின்றன, ஆனால் இந்த தரவுத் தொகுப்புகளில் சார்புகள், தவறான தகவல்கள் அல்லது காலாவதியான தகவல்கள் இருக்கலாம். இதன் விளைவாக, AI மாதிரிகள் சில நேரங்களில் நம்பகமானதாகத் தோன்றினாலும் உண்மையில் தவறான வெளியீடுகளை உருவாக்க முடியும். மருத்துவ அமைப்புகளில் இது ஒரு குறிப்பிடத்தக்க ஆபத்தை ஏற்படுத்துகிறது, அங்கு நோயறிதல் பிழைகள் அல்லது தவறான சிகிச்சை பரிந்துரைகள் நோயாளிகளுக்கு கடுமையான விளைவுகளை ஏற்படுத்தக்கூடும்.

AI-ஐ மிகையாக நம்புவதால் ஏற்படும் ஆபத்து

சுகாதார நிபுணர்கள் AI-ஐ அதிகமாக நம்புவதற்கும், அவர்களின் விமர்சன சிந்தனை திறன்களை இழப்பதற்கும் உள்ள சாத்தியக்கூறு மற்றொரு கவலையாகும். மருத்துவர்கள் மற்றும் செவிலியர்கள் AI வெளியீடுகளை தவறாக கருதினால், அவர்கள் நோயாளிகளின் நிலைகளை போதுமான அளவு மதிப்பிடவோ, முக்கியமான விவரங்களை புறக்கணிக்கவோ அல்லது AI-யின் பரிந்துரைகளை கேள்வி கேட்கவோ தவறக்கூடும். இது நோயறிதல் பிழைகள், பொருத்தமற்ற சிகிச்சைகள் மற்றும் மருத்துவப் பாதுகாப்பின் தரத்தில் குறைவு ஆகியவற்றுக்கு வழிவகுக்கும்.

மேலும், AI-ஐ பரவலாக ஏற்றுக்கொள்வது தரவு தனியுரிமை, அல்காரிதமிக் சார்பு மற்றும் வேலை இழப்புக்கான சாத்தியம் குறித்து நெறிமுறை மற்றும் சமூக கேள்விகளை எழுப்புகிறது. நோயாளிகள் தங்கள் சுகாதாரத் தரவின் பாதுகாப்பு மற்றும் ரகசியத்தன்மை குறித்து கவலைப்படலாம், குறிப்பாக அது AI மாதிரிகளுக்குப் பயிற்சி அளிக்கப் பயன்படுத்தப்பட்டால். அல்காரிதமிக் சார்பு ஏற்கனவே உள்ள சுகாதார ஏற்றத்தாழ்வுகளைத் தக்கவைத்து, அதிகரிக்கச் செய்யலாம், AI மாதிரிகள் மக்கள்தொகையின் பன்முகத்தன்மையை துல்லியமாக பிரதிபலிக்காத தரவுகளில் பயிற்சி அளிக்கப்பட்டால் இது நிகழக்கூடும்.

புதுமைக்கும் எச்சரிக்கைக்கும் இடையே சமநிலையை ஏற்படுத்துதல்

இந்த அபாயங்களைக் குறைக்க, சுகாதாரப் பாதுகாப்பில் AI-ஐ ஒருங்கிணைப்பதற்கு மிகவும் கவனமான மற்றும் பொறுப்பான அணுகுமுறையை கடைப்பிடிப்பது அவசியம். இதில் பின்வருவன அடங்கும்:

  • கடுமையான சோதனை மற்றும் சரிபார்ப்பு: மருத்துவ அமைப்புகளில் AI மாதிரிகளைப் பயன்படுத்துவதற்கு முன், அவற்றின் துல்லியம், நம்பகத்தன்மை மற்றும் நியாயம் ஆகியவற்றை உறுதிப்படுத்த பல்வேறு மக்கள்தொகைகளில் அவை முழுமையாக சோதிக்கப்பட்டு சரிபார்க்கப்பட வேண்டும்.
  • மனித மேற்பார்வை: AI மனித தீர்ப்பை அதிகரிக்க ஒரு கருவியாக பயன்படுத்தப்பட வேண்டும், அதை மாற்றக்கூடாது. மருத்துவ முடிவுகளை எடுப்பதற்கு முன் சுகாதார நிபுணர்கள் AI வெளியீடுகளை எப்போதும் மதிப்பாய்வு செய்து சரிபார்க்க வேண்டும்.
  • வெளிப்படைத்தன்மை மற்றும் விளக்கமளிக்கும் தன்மை: AI மாதிரிகள் வெளிப்படையானதாகவும், விளக்கமளிக்கக் கூடியதாகவும் இருக்க வேண்டும், எனவே சுகாதார நிபுணர்கள் அவற்றின் பரிந்துரைகளுக்கு எவ்வாறு வருகிறார்கள் என்பதைப் புரிந்து கொள்ள முடியும். இது AI-யின் மீது நம்பிக்கையை உருவாக்கவும், சாத்தியமான பிழைகள் அல்லது சார்புகளை அடையாளம் காணவும் உதவும்.
  • தரவு தனியுரிமை மற்றும் பாதுகாப்பு: நோயாளி தரவின் தனியுரிமை மற்றும் பாதுகாப்பைப் பாதுகாக்க வலுவான பாதுகாப்புகள் ஏற்படுத்தப்பட வேண்டும். இதில் தகவல் ஒப்புதல் பெறுதல், வலுவான பாதுகாப்பு நடவடிக்கைகளை செயல்படுத்துதல் மற்றும் தரவு பாதுகாப்பு விதிமுறைகளை பின்பற்றுதல் ஆகியவை அடங்கும்.
  • கல்வி மற்றும் பயிற்சி: சுகாதார நிபுணர்களுக்கு AI-ஐ திறம்பட மற்றும் பொறுப்புடன் பயன்படுத்துவது குறித்து விரிவான பயிற்சி அளிக்கப்பட வேண்டும். AI-யின் வரம்புகளைப் புரிந்துகொள்வது, சாத்தியமான சார்புகளை அங்கீகரிப்பது மற்றும் AI வெளியீடுகளை விமர்சன ரீதியாக மதிப்பீடு செய்வது ஆகியவை இதில் அடங்கும்.

சைபர் பாதுகாப்பு பாதிப்புகளை கையாளுதல்

ஹாங்காங் சீன பல்கலைக்கழகத்தைச் சேர்ந்த ஆராய்ச்சியாளர்கள் சுட்டிக்காட்டியுள்ளபடி, AI ஏஜென்ட்களின் சைபர் பாதுகாப்பு பாதிப்புகள் சுகாதார அமைப்புகளின் ஒருமைப்பாடு மற்றும் பாதுகாப்பிற்கு குறிப்பிடத்தக்க அச்சுறுத்தலை ஏற்படுத்துகின்றன. AI மாதிரிகள் தாக்குதல்களுக்கு ஆளாக நேர்ந்தால், தீங்கிழைக்கும் நடிகர்கள் AI-யின் வெளியீடுகளை கையாளவோ, முக்கியமான நோயாளி தரவை அணுகவோ அல்லது சுகாதார நடவடிக்கைகளை சீர்குலைக்கவோ முடியும்.

இந்த பாதிப்புகளைக் கையாளுவதற்கு, வலுவான சைபர் பாதுகாப்பு நடவடிக்கைகளை செயல்படுத்த வேண்டியது அவசியம், அவை:

  • பாதுகாப்பான குறியீட்டு முறைகள்: SQL இன்ஜெக்ஷன், குறுக்கு-தள ஸ்கிரிப்டிங் மற்றும் பஃபர் ஓவர்ஃப்ளோஸ் போன்ற பாதிப்புகளைத் தடுக்க AI மாதிரிகள் பாதுகாப்பான குறியீட்டு முறைகளைப் பயன்படுத்தி உருவாக்கப்பட வேண்டும்.
  • வழக்கமான பாதுகாப்பு தணிக்கைகள்: சாத்தியமான பாதிப்புகளை அடையாளம் கண்டு அவற்றை நிவர்த்தி செய்ய AI அமைப்புகள் வழக்கமான பாதுகாப்பு தணிக்கைகளுக்கு உட்படுத்தப்பட வேண்டும்.
  • ஊடுருவல் கண்டறிதல் மற்றும் தடுப்பு அமைப்புகள்: AI அமைப்புகளை தீங்கிழைக்கும் செயல்களுக்காக கண்காணிக்கவும், அங்கீகரிக்கப்படாத அணுகலைத் தடுக்கவும் ஊடுருவல் கண்டறிதல் மற்றும் தடுப்பு அமைப்புகள் செயல்படுத்தப்பட வேண்டும்.
  • தரவு குறியாக்கம்: முக்கியமான நோயாளி தரவு போக்குவரத்து மற்றும் ஓய்வு இரண்டிலும் அங்கீகரிக்கப்படாத அணுகலில் இருந்து பாதுகாக்க குறியாக்கம் செய்யப்பட வேண்டும்.
  • அணுகல் கட்டுப்பாடுகள்: அங்கீகரிக்கப்பட்ட பணியாளர்களுக்கு AI அமைப்புகள் மற்றும் தரவுக்கான அணுகலைக் கட்டுப்படுத்த கடுமையான அணுகல் கட்டுப்பாடுகள் செயல்படுத்தப்பட வேண்டும்.

நெறிமுறை பரிசீலனைகள்

தொழில்நுட்ப சவால்களுக்கு அப்பால், சுகாதாரப் பாதுகாப்பில் AI-ஐ ஒருங்கிணைப்பது பல முக்கியமான நெறிமுறை பரிசீலனைகளை எழுப்புகிறது. இவை பின்வருமாறு:

  • அல்காரிதமிக் சார்பு: AI மாதிரிகள் மக்கள்தொகையின் பன்முகத்தன்மையை துல்லியமாக பிரதிபலிக்காத தரவுகளில் பயிற்சி அளிக்கப்பட்டால் ஏற்கனவே உள்ள சுகாதார ஏற்றத்தாழ்வுகளைத் தக்கவைத்து, அதிகரிக்கச் செய்யலாம். AI மாதிரிகள் நியாயமானதாகவும், சார்பு இல்லாதவையாகவும் இருப்பதை உறுதி செய்வது அவசியம்.
  • தரவு தனியுரிமை: நோயாளிகள் தங்கள் சுகாதாரத் தரவின் தனியுரிமை குறித்து கவலைப்படலாம், குறிப்பாக அது AI மாதிரிகளுக்குப் பயிற்சி அளிக்கப் பயன்படுத்தப்பட்டால். தகவல் ஒப்புதல் பெறுவதும் நோயாளி தரவைப் பாதுகாப்பதும் அவசியம்.
  • வெளிப்படைத்தன்மை மற்றும் விளக்கமளிக்கும் தன்மை: AI மாதிரிகள் வெளிப்படையானதாகவும், விளக்கமளிக்கக் கூடியதாகவும் இருக்க வேண்டும், எனவே நோயாளிகள் அவற்றின் பரிந்துரைகளுக்கு எவ்வாறு வருகிறார்கள் என்பதைப் புரிந்து கொள்ள முடியும். இது AI-யின் மீது நம்பிக்கையை உருவாக்க உதவும்.
  • பொறுப்புக்கூறல்: AI அமைப்புகளால் எடுக்கப்படும் முடிவுகளுக்கு தெளிவான பொறுப்புக்கூறல் வரிகளை நிறுவுவது முக்கியம். AI மாதிரி தவறான நோயறிதலைச் செய்தால் அல்லது பொருத்தமற்ற சிகிச்சையை பரிந்துரைத்தால் யார் பொறுப்பு?

முன்னோக்கி செல்லும் பாதை

சுகாதாரப் பாதுகாப்பில் AI-ஐ ஒருங்கிணைப்பது நோயாளியின் மருத்துவப் பராமரிப்பை மேம்படுத்துவதற்கும், செலவுகளைக் குறைப்பதற்கும், சுகாதார அமைப்புகளின் செயல்திறனை அதிகரிப்பதற்கும் மகத்தான ஆற்றலைக் கொண்டுள்ளது. இருப்பினும், இந்த ஒருங்கிணைப்பை எச்சரிக்கையுடன் அணுகுவதும், சாத்தியமான அபாயங்கள் மற்றும் சவால்களைக் கையாள்வதும் முக்கியம். பொறுப்பான மற்றும் நெறிமுறை அணுகுமுறையை பின்பற்றுவதன் மூலம், சுகாதாரப் பராமரிப்பை சிறப்பாக மாற்ற AI-யின் சக்தியைப் பயன்படுத்தலாம்.