চীনা হাসপাতালে DeepSeek AI নিয়ে উদ্বেগ

চীনে DeepSeek AI দ্রুত গ্রহণ নিয়ে উদ্বেগ বাড়ছে

চীনা গবেষকদের একটি দল হাসপাতাল সেটিংসে DeepSeek নামক একটি কৃত্রিম বুদ্ধিমত্তা মডেলের দ্রুত একত্রীকরণ নিয়ে উদ্বেগ প্রকাশ করেছে। তাদের বিশ্লেষণে ক্লিনিক্যাল সুরক্ষা এবং ডেটা গোপনীয়তার সম্ভাব্য বিপদগুলির উপর আলোকপাত করা হয়েছে, বিশেষত স্টার্ট-আপের সাশ্রয়ী মূল্যের ওপেন-সোর্স মডেলগুলির ব্যাপক ব্যবহারের কারণে।

মার্চের শুরুতেই, DeepSeek-এর বৃহৎ ভাষা মডেল (LLMs) ক্লিনিক্যাল ডায়াগনস্টিকস এবং চিকিৎসা সিদ্ধান্ত সহায়তার জন্য কমপক্ষে ৩০০টি চীনা হাসপাতালে ব্যবহার করা হচ্ছিল।

জার্নাল অফ দ্য আমেরিকান মেডিকেল অ্যাসোসিয়েশন (JAMA)-এ প্রকাশিত গবেষণা পত্রটি DeepSeek-এর আউটপুট তৈরি করার প্রবণতার দিকে ইঙ্গিত করে যা দেখতে убедительный মনে হলেও আসলে ভুল। AI-এর শক্তিশালী যুক্তিবোধের ক্ষমতা থাকা সত্ত্বেও, এটি উল্লেখযোগ্য ক্লিনিক্যাল ঝুঁকি তৈরি করতে পারে। চীনের বেইজিংয়ের সিংহুয়া বিশ্ববিদ্যালয়ের একটি গবেষণা বিভাগ, সিংহুয়া মেডিসিনের প্রতিষ্ঠাতা প্রধান Wong Tien Yin গবেষণা দলের একজন সদস্য।

এই সতর্কীকরণ চীনের DeepSeek নিয়ে প্রচলিত প্রবল আগ্রহের বিপরীতে অবস্থান করে। স্টার্ট-আপটি তার সাশ্রয়ী মূল্যের এবং উচ্চ-কার্যকারিতা সম্পন্ন V3 এবং R1 মডেলগুলোর জন্য প্রশংসিত এবং এটি চীনের AI অগ্রগতির প্রতীকরূপে পরিণত হয়েছে।

Wong এবং তার সহ-লেখকরা সেই ঝুঁকির উপর জোর দিয়েছেন যে স্বাস্থ্যসেবা পেশাদাররা সমালোচনামূলক মূল্যায়ন ছাড়াই DeepSeek-এর আউটপুটের উপর অতিরিক্ত নির্ভরশীল হয়ে পড়তে পারেন বা গ্রহণ করতে পারেন। এর ফলে রোগ নির্ণয়ে ভুল বা পক্ষপাতদুষ্ট চিকিৎসার পরিকল্পনা তৈরি হতে পারে। বিপরীতভাবে, যে চিকিৎসকরা সতর্ক থাকবেন তাদের সময় স্বল্পতার মধ্যে AI আউটপুট যাচাই করার অতিরিক্ত বোঝা বহন করতে হবে।

সাইটে স্থাপনে নিরাপত্তা ঝুঁকি

হাসপাতালগুলো প্রায়শই নিরাপত্তা এবং গোপনীয়তার সাথে সম্পর্কিত ঝুঁকি কমাতে DeepSeek মডেলগুলোর ব্যক্তিগত, অন-সাইট স্থাপনার বিকল্প বেছে নেয়। তবে এই পদ্ধতিটি নিজস্ব জটিলতা নিয়ে আসে। গবেষকদের মতে, এটি "নিরাপত্তা রক্ষার দায়ভার পৃথক স্বাস্থ্যসেবা সুবিধাগুলোর উপর অর্পণ করে", যাদের অনেকেরই প্রয়োজনীয় সাইবার নিরাপত্তা প্রতিরক্ষা নেই।

গবেষকরা আরও উল্লেখ করেছেন যে চীনের দুর্বল প্রাথমিক স্বাস্থ্যসেবা অবকাঠামো এবং স্মার্টফোনের ব্যাপক ব্যবহার একটি "পারফেক্ট স্টর্ম" তৈরি করে যা ক্লিনিক্যাল সুরক্ষা নিয়ে উদ্বেগ আরও বাড়িয়ে তোলে।

গবেষকরা বলছেন, “জটিল চিকিৎসা প্রয়োজন সম্পন্ন সুবিধাবঞ্চিত জনগোষ্ঠীর AI-চালিত স্বাস্থ্য সুপারিশগুলোতে নজিরবিহীন অ্যাক্সেস রয়েছে, তবে নিরাপদ বাস্তবায়নের জন্য প্রয়োজনীয় ক্লিনিক্যাল তদারকির প্রায়শই অভাব থাকে।”

স্বাস্থ্যসেবা সেটিংসে LLM-এর যাচাই

এই গবেষণাপত্রটি ক্লিনিক্যাল এবং চিকিৎসা সেটিংসে LLM ব্যবহারের বিষয়ে ক্রমবর্ধমান আলোচনায় অবদান রাখে। চীনের অন্যান্য সংস্থাগুলিও LLM গ্রহণ দ্রুত হওয়ায় তা যাচাই করতে শুরু করেছে। গত মাসে হংকংয়ের চীনা বিশ্ববিদ্যালয়ের গবেষকদের দ্বারা প্রকাশিত অন্য একটি গবেষণাপত্রে AI এজেন্টদের সাইবার নিরাপত্তা দুর্বলতা পরীক্ষা করা হয়েছে এবং দেখা গেছে যে সাধারণভাবে ব্যবহৃত LLM দ্বারা চালিত এজেন্টগুলো বিভিন্ন হামলার শিকার হতে পারে, যার মধ্যে DeepSeek-R1 সবচেয়ে বেশি সংবেদনশীল।

জেনারেটিভ AI প্রযুক্তির ব্যাপক বৃদ্ধির মধ্যে চীন স্বাস্থ্যসেবাতে LLM-এর ব্যবহার বাড়িয়েছে। গত মাসে, চীনের আর্থিক প্রযুক্তি সংস্থা Ant Group তাদের Alipay পেমেন্টস অ্যাপে প্রায় 100টি AI মেডিকেল এজেন্ট চালু করেছে। এই এজেন্টগুলোকে চীনের বিশিষ্ট হাসপাতালগুলোর চিকিৎসা বিশেষজ্ঞরা সহায়তা করেন।

Tsinghua University-তে ইনকিউবেটেড একটি স্টার্ট-আপ Tairex নভেম্বরে একটি ভার্চুয়াল হাসপাতাল প্ল্যাটফর্মের অভ্যন্তরীণ পরীক্ষা শুরু করেছে। প্ল্যাটফর্মটিতে ৪২ জন AI ডাক্তার রয়েছেন যারা জরুরি, শ্বাসযন্ত্র, শিশু এবং কার্ডিওলজি সহ ২১টি বিভাগ কভার করেন। সংস্থাটি বছরের শেষের দিকে জনসাধারণের জন্য প্ল্যাটফর্মটি চালু করার পরিকল্পনা প্রকাশ করেছে।

স্বাস্থ্যসেবাতে AI ঘিরে উদ্বেগের গভীরে ডুব

AI, বিশেষত DeepSeek-এর মতো বৃহৎ ভাষা মডেল (LLM)-এর দ্রুত একীকরণ, চীনের স্বাস্থ্যসেবা সেটিংসের মধ্যে এর সম্ভাব্য সুবিধাগুলোর চ্যাম্পিয়ন এবং যারা সতর্কতার আহ্বান জানিয়েছেন তাদের মধ্যে একটি বিতর্ক সৃষ্টি করেছে। AI রোগ নির্ণয়, চিকিৎসা এবং যত্নের সুযোগ উন্নত করার জন্য দারুণ সম্ভাবনা সরবরাহ করলেও বেশ কয়েকটি কারণ আরও সতর্ক পদ্ধতির দাবি রাখে। গবেষকদের উত্থাপিত উদ্বেগগুলো এই ধরনের গুরুত্বপূর্ণ ডোমেনে AI স্থাপনের জটিলতা এবং সম্ভাব্য ফাঁদগুলো তুলে ধরে।

প্রাথমিক উদ্বেগের মধ্যে একটি হল AI-উত্পাদিত তথ্যের নির্ভরযোগ্যতা। LLM বিশাল ডেটা সেটের উপর প্রশিক্ষিত, তবে এই ডেটা সেটগুলোতে পক্ষপাতদুষ্টতা, ভুল তথ্য বা পুরানো তথ্য থাকতে পারে। ফলস্বরূপ, AI মডেল মাঝে মাঝে এমন আউটপুট তৈরি করতে পারে যা বিশ্বাসযোগ্য মনে হলেও আসলে ভুল। এটি চিকিৎসা সেটিংসে একটি গুরুত্বপূর্ণ ঝুঁকি তৈরি করে, যেখানে ডায়াগনস্টিক ত্রুটি বা ভুল চিকিৎসার সুপারিশ রোগীদের জন্য মারাত্মক পরিণতি ডেকে আনতে পারে।

AI-এর উপর অতিরিক্ত নির্ভরতার ঝুঁকি

আরেকটি উদ্বেগ হল স্বাস্থ্যসেবা পেশাদারদের AI-এর উপর অতিরিক্ত নির্ভরশীল হয়ে পড়া এবং তাদের সমালোচনামূলক চিন্তাভাবনার দক্ষতা হারানোর সম্ভাবনা। যদি ডাক্তার এবং নার্সরা AI আউটপুটকে безоговорочно সত্য বলে গণ্য করতে শুরু করেন, তবে তারা রোগীদের অবস্থার পর্যাপ্ত মূল্যায়ন করতে, গুরুত্বপূর্ণ বিবরণ উপেক্ষা করতে বা AI-এর সুপারিশগুলোকে প্রশ্ন করতে ব্যর্থ হতে পারেন। এর ফলে ডায়াগনস্টিক ত্রুটি, অনুপযুক্ত চিকিৎসা এবং যত্নের গুণগত মান হ্রাস হতে পারে।

উপরন্তু, AI-এর ব্যাপক গ্রহণ ডেটা গোপনীয়তা, অ্যালগরিদমিক পক্ষপাতদুষ্টতা এবং চাকরি হারানোর সম্ভাবনা সম্পর্কে নৈতিক এবং সামাজিক প্রশ্ন উত্থাপন করে। রোগীরা তাদের স্বাস্থ্য ডেটার безопасность এবং গোপনীয়তা সম্পর্কে উদ্বিগ্ন হতে পারেন, বিশেষত যদি এটি AI মডেলগুলোকে প্রশিক্ষণ দেওয়ার জন্য ব্যবহার করা হয়। অ্যালগরিদমিক পক্ষপাতদুষ্টতা বিদ্যমান স্বাস্থ্য বৈষম্যগুলোকে স্থায়ী করতে এবং আরও খারাপ করতে পারে যদি AI মডেলগুলো এমন ডেটার উপর প্রশিক্ষিত হয় যা জনসংখ্যার বৈচিত্র্যকে সঠিকভাবে প্রতিফলিত করে না।

উদ্ভাবন এবং সতর্কতার মধ্যে ভারসাম্য বজায় রাখা

এই ঝুঁকিগুলো হ্রাস করার জন্য, স্বাস্থ্যসেবাতে AI-এর একীকরণের ক্ষেত্রে আরও সতর্ক এবং দায়িত্বশীল পদ্ধতি গ্রহণ করা জরুরি। এর মধ্যে রয়েছে:

  • কঠোর পরীক্ষা এবং বৈধতা: ক্লিনিক্যাল সেটিংসে AI মডেল স্থাপনের আগে, তাদের নির্ভুলতা, নির্ভরযোগ্যতা এবং ন্যায্যতা নিশ্চিত করার জন্য বিভিন্ন জনগোষ্ঠীর উপর পুঙ্খানুপুঙ্খভাবে পরীক্ষা এবং বৈধতা করা উচিত।
  • মানবিক তদারকি: AI কে মানবিক বিচারবুদ্ধিকে প্রতিস্থাপন করার পরিবর্তে সহায়তা করার একটি সরঞ্জাম হিসাবে ব্যবহার করা উচিত। স্বাস্থ্যসেবা পেশাদারদের সর্বদা ক্লিনিক্যাল সিদ্ধান্ত নেওয়ার আগে AI আউটপুট পর্যালোচনা এবং যাচাই করা উচিত।
  • স্বচ্ছতা এবং ব্যাখ্যামূলক ক্ষমতা: AI মডেলগুলোকে স্বচ্ছ এবং ব্যাখ্যামূলক হতে হবে, যাতে স্বাস্থ্যসেবা পেশাদাররা বুঝতে পারেন যে তারা কীভাবে তাদের সুপারিশগুলোতে পৌঁছেছেন। এটি AI-এর প্রতি আস্থা তৈরি করতে এবং সম্ভাব্য ত্রুটি বা পক্ষপাতদুষ্টতা সনাক্ত করতে সহায়তা করতে পারে।
  • ডেটা গোপনীয়তা এবং নিরাপত্তা: রোগীর ডেটার গোপনীয়তা এবং নিরাপত্তা রক্ষার জন্য শক্তিশালী সুরক্ষা ব্যবস্থা স্থাপন করা উচিত। এর মধ্যে অবহিত সম্মতি নেওয়া, শক্তিশালী নিরাপত্তা ব্যবস্থা বাস্তবায়ন করা এবং ডেটা সুরক্ষা বিধি মেনে চলা অন্তর্ভুক্ত।
  • শিক্ষা এবং প্রশিক্ষণ: স্বাস্থ্যসেবা পেশাদারদের কীভাবে কার্যকরভাবে এবং দায়িত্বের সাথে AI ব্যবহার করতে হয় সে সম্পর্কে ব্যাপক প্রশিক্ষণ দেওয়া উচিত। এর মধ্যে AI-এর সীমাবদ্ধতা বোঝা, সম্ভাব্য পক্ষপাতদুষ্টতা চিহ্নিত করা এবং AI আউটপুটগুলোকে সমালোচনামূলকভাবে মূল্যায়ন করা অন্তর্ভুক্ত।

সাইবার নিরাপত্তা দুর্বলতা মোকাবেলা করা

হংকংয়ের চীনা বিশ্ববিদ্যালয়ের গবেষকদের দ্বারা উল্লিখিত AI এজেন্টদের সাইবার নিরাপত্তা দুর্বলতা, স্বাস্থ্যসেবা সিস্টেমগুলোর অখণ্ডতা এবং নিরাপত্তার জন্য একটি গুরুত্বপূর্ণ হুমকি সৃষ্টি করে। যদি AI মডেলগুলো হামলার শিকার হয়, তবে দূষিত ব্যক্তিরা সম্ভাব্যভাবে AI এর আউটপুটগুলোকে ম্যানিপুলেট করতে, সংবেদনশীল রোগীর ডেটা অ্যাক্সেস করতে বা স্বাস্থ্যসেবা কার্যক্রম ব্যাহত করতে পারে।

এই দুর্বলতাগুলো মোকাবেলার জন্য, শক্তিশালী সাইবার নিরাপত্তা ব্যবস্থা বাস্তবায়ন করা জরুরি, যেমন:

  • নিরাপদ কোডিং অনুশীলন: SQL ইনজেকশন, ক্রস-সাইট স্ক্রিপ্টিং এবং বাফার ওভারফ্লোর মতো দুর্বলতা প্রতিরোধ করার জন্য নিরাপদ কোডিং অনুশীলন ব্যবহার করে AI মডেল তৈরি করা উচিত।
  • নিয়মিত নিরাপত্তা নিরীক্ষা: সম্ভাব্য দুর্বলতাগুলো সনাক্ত এবং মোকাবেলার জন্য AI সিস্টেমগুলোর নিয়মিত নিরাপত্তা নিরীক্ষা করা উচিত।
  • অনুপ্রবেশ সনাক্তকরণ এবং প্রতিরোধ ব্যবস্থা: দূষিত কার্যকলাপের জন্য AI সিস্টেমগুলো নিরীক্ষণ করতে এবং অননুমোদিত অ্যাক্সেস প্রতিরোধ করতে অনুপ্রবেশ সনাক্তকরণ এবং প্রতিরোধ ব্যবস্থা বাস্তবায়ন করা উচিত।
  • ডেটা এনক্রিপশন: সংবেদনশীল রোগীর ডেটা অননুমোদিত অ্যাক্সেস থেকে রক্ষা করতে স্থানান্তরকালে এবং বিশ্রামের সময় এনক্রিপ্ট করা উচিত।
  • অ্যাক্সেস কন্ট্রোল: AI সিস্টেম এবং ডেটাতে অ্যাক্সেস সীমাবদ্ধ করতে কঠোর অ্যাক্সেস কন্ট্রোল বাস্তবায়ন করা উচিত কেবলমাত্র অনুমোদিত কর্মীদের জন্য।

নৈতিক বিবেচনা

প্রযুক্তিগত চ্যালেঞ্জগুলো ছাড়াও, স্বাস্থ্যসেবায় AI-এর একীকরণ বেশ কিছু গুরুত্বপূর্ণ নৈতিক বিবেচনা উত্থাপন করে। এর মধ্যে রয়েছে:

  • অ্যালগরিদমিক পক্ষপাতদুষ্টতা: AI মডেলগুলো বিদ্যমান স্বাস্থ্য বৈষম্যগুলোকে স্থায়ী করতে এবং আরও খারাপ করতে পারে যদি তারা এমন ডেটার উপর প্রশিক্ষিত হয় যা জনসংখ্যার বৈচিত্র্যকে সঠিকভাবে প্রতিফলিত করে না। AI মডেলগুলো ন্যায্য এবং পক্ষপাতদুষ্টতা মুক্ত কিনা তা নিশ্চিত করা জরুরি।
  • ডেটা গোপনীয়তা: রোগীরা তাদের স্বাস্থ্য ডেটার গোপনীয়তা সম্পর্কে উদ্বিগ্ন হতে পারেন, বিশেষত যদি এটি AI মডেলগুলোকে প্রশিক্ষণ দেওয়ার জন্য ব্যবহার করা হয়। অবহিত সম্মতি নেওয়া এবং রোগীর ডেটা রক্ষা করা জরুরি।
  • স্বচ্ছতা এবং ব্যাখ্যামূলক ক্ষমতা: AI মডেলগুলোকে স্বচ্ছ এবং ব্যাখ্যামূলক হতে হবে, যাতে রোগীরা বুঝতে পারেন যে তারা কীভাবে তাদের সুপারিশগুলোতে পৌঁছেছেন। এটি AI-এর প্রতি আস্থা তৈরি করতে সহায়তা করতে পারে।
  • দায়বদ্ধতা: AI সিস্টেম দ্বারা নেওয়া সিদ্ধান্তের জন্য দায়বদ্ধতার সুস্পষ্ট লাইন স্থাপন করা গুরুত্বপূর্ণ। যদি কোনও AI মডেল ভুল রোগ নির্ণয় করে বা অনুপযুক্ত চিকিৎসার সুপারিশ করে তবে কে দায়ী থাকবে?

ভবিষ্যতের পথ

স্বাস্থ্যসেবায় AI-এর একীকরণ রোগীর যত্ন উন্নত করতে, খরচ কমাতে এবং স্বাস্থ্যসেবা সিস্টেমগুলোর দক্ষতা বাড়ানোর জন্য বিশাল সম্ভাবনা রাখে। তবে, সতর্কতার সাথে এই একীকরণের কাছে যাওয়া और সম্ভাব্য ঝুঁকি এবং চ্যালেঞ্জগুলো মোকাবেলা করা জরুরি। একটি দায়িত্বশীল और নৈতিক পদ্ধতি গ্রহণের মাধ্যমে, আমরা স্বাস্থ্যসেবাকেআরও উন্নত করতে AI-এর ক্ষমতাকে কাজে লাগাতে পারি।