মেডিকেল ডায়াগনসিস: ওপেন-সোর্স AI মালিকানা মডেলের সমান

কৃত্রিম বুদ্ধিমত্তার (Artificial intelligence - AI) নিরলস অগ্রগতি বিভিন্ন শিল্পকে নতুন আকার দিচ্ছে, এবং সম্ভবত চিকিৎসা ক্ষেত্রের চেয়ে বেশি ঝুঁকি বা সম্ভাবনা আর কোথাও নেই। বছরের পর বছর ধরে, সবচেয়ে শক্তিশালী AI মডেলগুলি, বিশেষ করে বৃহৎ ভাষা মডেল (large language models - LLMs), যা মানুষের মতো টেক্সট প্রক্রিয়া এবং তৈরি করতে সক্ষম, মূলত প্রযুক্তি দানবদের সুরক্ষিত দেয়ালের মধ্যেই সীমাবদ্ধ ছিল। এই মালিকানাধীন সিস্টেমগুলি, যেমন OpenAI-এর বহুল আলোচিত GPT-4, অসাধারণ দক্ষতা প্রদর্শন করেছে, এমনকি চিকিৎসা নির্ণয়ের জটিল ক্ষেত্রেও এর প্রসার ঘটেছে। তবুও, তাদের ‘ব্ল্যাক বক্স’ প্রকৃতি এবং সংবেদনশীল তথ্য বাহ্যিক সার্ভারে পাঠানোর প্রয়োজনীয়তা স্বাস্থ্যসেবা ক্ষেত্রে ব্যাপক, নিরাপদ গ্রহণের পথে উল্লেখযোগ্য বাধা সৃষ্টি করেছে, যেখানে রোগীর গোপনীয়তা কেবল একটি পছন্দ নয়, বরং একটি বাধ্যতামূলক বিষয়। একটি গুরুত্বপূর্ণ প্রশ্ন থেকেই গিয়েছিল: উদীয়মান ওপেন-সোর্স AI কি এই চ্যালেঞ্জ মোকাবেলা করতে পারবে, নিয়ন্ত্রণ এবং গোপনীয়তার সাথে আপোস না করে তুলনামূলক শক্তি সরবরাহ করতে পারবে?

Harvard Medical School (HMS)-এর সম্মানিত করিডোর থেকে উঠে আসা সাম্প্রতিক অনুসন্ধানগুলি ইঙ্গিত দেয় যে উত্তরটি একটি জোরালো হ্যাঁ, যা ক্লিনিকাল পরিবেশে AI প্রয়োগের ক্ষেত্রে একটি সম্ভাব্য সন্ধিক্ষণ চিহ্নিত করে। গবেষকরা একটি শীর্ষস্থানীয় ওপেন-সোর্স মডেলকে তার হাই-প্রোফাইল মালিকানাধীন প্রতিপক্ষের সাথে সতর্কতার সাথে তুলনা করেছেন, এমন ফলাফল উন্মোচন করেছেন যা অত্যাধুনিক ডায়াগনস্টিক সহায়কগুলিতে অ্যাক্সেসকে গণতান্ত্রিক করতে পারে।

ডায়াগনস্টিক ময়দানে এক নতুন প্রতিযোগী

একটি গবেষণায় যা চিকিৎসা এবং প্রযুক্তি উভয় সম্প্রদায়ের দৃষ্টি আকর্ষণ করেছে, HMS গবেষকরা ওপেন-সোর্স Llama 3.1 405B মডেলকে শক্তিশালী GPT-4-এর বিরুদ্ধে দাঁড় করিয়েছেন। পরীক্ষার ক্ষেত্রটি ছিল ৭০টি চ্যালেঞ্জিং মেডিকেল কেস স্টাডির একটি সাবধানে তৈরি করা সেট। এগুলি কোনও রুটিন পরিস্থিতি ছিল না; এগুলি ক্লিনিকাল অনুশীলনে প্রায়শই সম্মুখীন হওয়া জটিল ডায়াগনস্টিক ধাঁধাগুলির প্রতিনিধিত্ব করে। উদ্দেশ্য ছিল স্পষ্ট: প্রতিটি AI মডেলের ডায়াগনস্টিক বিচক্ষণতা মুখোমুখি মূল্যায়ন করা।

সম্প্রতি প্রকাশিত ফলাফলগুলি ছিল চমকপ্রদ। Llama 3.1 405B মডেল, যা ব্যবহারকারীদের ডাউনলোড, পরিদর্শন এবং পরিবর্তন করার জন্য অবাধে উপলব্ধ, ডায়াগনস্টিক নির্ভুলতা প্রদর্শন করেছে যা GPT-4-এর সমতুল্য, এবং কিছু মেট্রিক্সে এমনকি তাকে ছাড়িয়েও গেছে। বিশেষত, প্রতিটি মডেল দ্বারা প্রস্তাবিত প্রাথমিক ডায়াগনস্টিক পরামর্শের সঠিকতা মূল্যায়ন করার সময়, Llama 3.1 405B এগিয়ে ছিল। উপরন্তু, কেসের বিবরণ প্রক্রিয়া করার পরে প্রস্তাবিত চূড়ান্ত নির্ণয় বিবেচনা করার সময়, ওপেন-সোর্স প্রতিযোগী আবারও প্রতিষ্ঠিত বেঞ্চমার্কের বিরুদ্ধে তার যোগ্যতা প্রমাণ করেছে।

এই অর্জনটি কেবল পারফরম্যান্সের জন্যই তাৎপর্যপূর্ণ নয়, বরং এটি যা প্রতিনিধিত্ব করে তার জন্যও গুরুত্বপূর্ণ। প্রথমবারের মতো, একটি সহজলভ্য, স্বচ্ছ ওপেন-সোর্স টুল কেস স্টাডির উপর ভিত্তি করে চিকিৎসা নির্ণয়ের মতো চাহিদাপূর্ণ কাজে শীর্ষস্থানীয় ক্লোজড-সোর্স সিস্টেমগুলির মতো একই উচ্চ স্তরে কাজ করতে সক্ষম প্রমাণিত হয়েছে। Arjun K. Manrai ’08, একজন HMS অধ্যাপক যিনি গবেষণার তত্ত্বাবধান করেছিলেন, পারফরম্যান্সের এই সমতাকে ‘বেশ অসাধারণ’ বলে বর্ণনা করেছেন, বিশেষ করে ঐতিহাসিক প্রেক্ষাপট বিবেচনা করে।

ওপেন-সোর্স সুবিধা: ডেটা গোপনীয়তা এবং কাস্টমাইজেশন আনলক করা

হার্ভার্ডের গবেষণা দ্বারা হাইলাইট করা আসল গেম-চেঞ্জারটি ওপেন-সোর্স এবং মালিকানাধীন মডেলগুলির মধ্যে মৌলিক পার্থক্যের মধ্যে নিহিত: অ্যাক্সেসযোগ্যতা এবং নিয়ন্ত্রণ। GPT-4-এর মতো মালিকানাধীন মডেলগুলির জন্য সাধারণত ব্যবহারকারীদের প্রক্রিয়াকরণের জন্য প্রদানকারীর সার্ভারে ডেটা পাঠাতে হয়। স্বাস্থ্যসেবার ক্ষেত্রে, এটি অবিলম্বে লাল সংকেত উত্থাপন করে। রোগীর তথ্য - লক্ষণ, চিকিৎসা ইতিহাস, পরীক্ষার ফলাফল - সবচেয়ে সংবেদনশীল ডেটার মধ্যে অন্যতম, যা মার্কিন যুক্তরাষ্ট্রে HIPAA-এর মতো কঠোর প্রবিধান দ্বারা সুরক্ষিত। একটি হাসপাতালের সুরক্ষিত নেটওয়ার্কের বাইরে এই ডেটা প্রেরণ করার সম্ভাবনা, এমনকি উন্নত AI বিশ্লেষণের সম্ভাব্য সুবিধার জন্যও, একটি বড় বাধা হয়ে দাঁড়িয়েছে।

Llama 3.1 405B-এর মতো ওপেন-সোর্স মডেলগুলি মৌলিকভাবে এই গতিশীলতা পরিবর্তন করে। যেহেতু মডেলের কোড এবং প্যারামিটারগুলি সর্বজনীনভাবে উপলব্ধ, তাই প্রতিষ্ঠানগুলি এটিকে তাদের নিজস্ব সুরক্ষিত পরিকাঠামোর মধ্যে ডাউনলোড এবং স্থাপন করতে পারে।

  • ডেটা সার্বভৌমত্ব (Data Sovereignty): হাসপাতালগুলি সম্পূর্ণরূপে তাদের স্থানীয় সার্ভার বা ব্যক্তিগত ক্লাউডে AI চালাতে পারে। রোগীর ডেটা কখনই প্রতিষ্ঠানের সুরক্ষিত পরিবেশ ছেড়ে যাওয়ার প্রয়োজন হয় না, যা কার্যকরভাবে বাহ্যিক ডেটা প্রেরণের সাথে সম্পর্কিত গোপনীয়তার উদ্বেগ দূর করে। এই ধারণাটিকে প্রায়শই ‘ডেটা মডেলে পাঠানোর’ পরিবর্তে ‘মডেলকে ডেটাতে নিয়ে আসা’ হিসাবে উল্লেখ করা হয়।
  • উন্নত নিরাপত্তা (Enhanced Security): প্রক্রিয়াটি অভ্যন্তরীণভাবে রাখলে তৃতীয় পক্ষের AI প্রদানকারীদের সাথে সম্পর্কিত সম্ভাব্য ডেটা লঙ্ঘনের জন্য আক্রমণের ক্ষেত্র উল্লেখযোগ্যভাবে হ্রাস পায়। অপারেশনাল পরিবেশের উপর নিয়ন্ত্রণ সম্পূর্ণরূপে স্বাস্থ্যসেবা প্রতিষ্ঠানের হাতে থাকে।
  • স্বচ্ছতা এবং নিরীক্ষণযোগ্যতা (Transparency and Auditability): ওপেন-সোর্স মডেলগুলি গবেষক এবং ক্লিনিশিয়ানদের মডেলের আর্কিটেকচার পরিদর্শন করতে এবং কিছু পরিমাণে, অস্বচ্ছ মালিকানাধীন সিস্টেমগুলির চেয়ে এর সিদ্ধান্ত গ্রহণের প্রক্রিয়াগুলি আরও ভালভাবে বুঝতে দেয়। এই স্বচ্ছতা বৃহত্তর আস্থা তৈরি করতে এবং ডিবাগিং বা পরিমার্জনে সহায়তা করতে পারে।

Thomas A. Buckley, হার্ভার্ডের AI in Medicine প্রোগ্রামের একজন পিএইচডি ছাত্র এবং গবেষণার প্রথম লেখক, এই গুরুত্বপূর্ণ সুবিধার উপর জোর দিয়েছেন। তিনি বলেন, ‘ওপেন-সোর্স মডেলগুলি নতুন বৈজ্ঞানিক গবেষণার পথ খুলে দেয় কারণ সেগুলি হাসপাতালের নিজস্ব নেটওয়ার্কে স্থাপন করা যেতে পারে’। এই ক্ষমতা তাত্ত্বিক সম্ভাবনার বাইরে গিয়ে ব্যবহারিক, নিরাপদ প্রয়োগের দরজা খুলে দেয়।

অধিকন্তু, ওপেন-সোর্স প্রকৃতি কাস্টমাইজেশন-এর অভূতপূর্ব স্তরের অনুমতি দেয়। হাসপাতাল এবং গবেষণা গোষ্ঠীগুলি এখন তাদের নিজস্ব নির্দিষ্ট রোগীর ডেটা ব্যবহার করে এই শক্তিশালী বেস মডেলগুলিকে ফাইন-টিউন করতে পারে।

  • জনসংখ্যা-নির্দিষ্ট টিউনিং (Population-Specific Tuning): একটি হাসপাতাল সিস্টেম দ্বারা পরিবেশিত একটি নির্দিষ্ট স্থানীয় বা আঞ্চলিক জনসংখ্যার জনসংখ্যাগত বৈশিষ্ট্য, প্রচলিত রোগ এবং অনন্য স্বাস্থ্য চ্যালেঞ্জগুলিকে আরও ভালভাবে প্রতিফলিত করার জন্য একটি মডেলকে অভিযোজিত করা যেতে পারে।
  • প্রোটোকল অ্যালাইনমেন্ট (Protocol Alignment): একটি হাসপাতালের নির্দিষ্ট ডায়াগনস্টিক পথ, চিকিৎসা প্রোটোকল বা রিপোর্টিং মানগুলির সাথে সামঞ্জস্যপূর্ণ করার জন্য AI আচরণ সামঞ্জস্য করা যেতে পারে।
  • বিশেষায়িত অ্যাপ্লিকেশন (Specialized Applications): গবেষকরা নির্দিষ্ট চিকিৎসা ডোমেনের জন্য মডেলের অত্যন্ত বিশেষায়িত সংস্করণ তৈরি করতে পারেন, যেমন রেডিওলজি ইমেজ বিশ্লেষণ ব্যাখ্যা সমর্থন, প্যাথলজি রিপোর্ট স্ক্রীনিং, বা বিরল রোগের ধরণ সনাক্তকরণ।

Buckley এই প্রভাব সম্পর্কে বিস্তারিত বলেছেন: ‘গবেষকরা এখন সরাসরি রোগীর ডেটা দিয়ে অত্যাধুনিক ক্লিনিকাল AI ব্যবহার করতে পারেন… হাসপাতালগুলি কাস্টম মডেল তৈরি করতে রোগীর ডেটা ব্যবহার করতে পারে (উদাহরণস্বরূপ, তাদের নিজস্ব রোগীর জনসংখ্যার সাথে সামঞ্জস্যপূর্ণ করার জন্য)’। এই বেসপোক AI সরঞ্জামগুলির সম্ভাবনা, যা নিরাপদে অভ্যন্তরীণভাবে তৈরি করা হয়েছে, একটি উল্লেখযোগ্য অগ্রগতি উপস্থাপন করে।

প্রেক্ষাপট: জটিল ক্ষেত্রে AI-এর অভিঘাত তরঙ্গ

Llama 3.1 405B নিয়ে হার্ভার্ড দলের তদন্ত কোনও শূন্যস্থানে পরিচালিত হয়নি। এটি আংশিকভাবে পূর্ববর্তী গবেষণা, বিশেষ করে একটি উল্লেখযোগ্য 2023 সালের গবেষণাপত্র দ্বারা সৃষ্ট আলোড়ন দ্বারা অনুপ্রাণিত হয়েছিল। সেই গবেষণায় মর্যাদাপূর্ণ New England Journal of Medicine (NEJM)-এ প্রকাশিত কিছু সবচেয়ে বিভ্রান্তিকর ক্লিনিকাল কেস মোকাবেলায় GPT মডেলগুলির আশ্চর্যজনক দক্ষতা প্রদর্শন করা হয়েছিল। এই NEJM ‘Case Records of the Massachusetts General Hospital’ চিকিৎসা জগতে কিংবদন্তী - জটিল, প্রায়শই বিভ্রান্তিকর কেস যা এমনকি অভিজ্ঞ ক্লিনিশিয়ানদেরও চ্যালেঞ্জ করে।

‘এই গবেষণাপত্রটি প্রচুর মনোযোগ পেয়েছিল এবং মূলত দেখিয়েছিল যে এই বৃহৎ ভাষা মডেল, ChatGPT, কোনওভাবে এই অবিশ্বাস্যভাবে চ্যালেঞ্জিং ক্লিনিকাল কেসগুলি সমাধান করতে পারে, যা একরকম মানুষকে হতবাক করেছিল,’ Buckley স্মরণ করেন। এই ধারণা যে একটি AI, মূলত বিশাল পরিমাণ টেক্সটের উপর প্রশিক্ষিত একটি জটিল প্যাটার্ন-ম্যাচিং মেশিন, ডায়াগনস্টিক রহস্য উন্মোচন করতে পারে যার জন্য প্রায়শই গভীর ক্লিনিকাল অন্তর্দৃষ্টি এবং অভিজ্ঞতার প্রয়োজন হয়, তা আকর্ষণীয় এবং কারো কারো জন্য অস্বস্তিকর ছিল।

‘এই কেসগুলি কুখ্যাতভাবে কঠিন,’ Buckley যোগ করেছেন। ‘এগুলি Mass General Hospital-এ দেখা সবচেয়ে চ্যালেঞ্জিং কেসগুলির মধ্যে কয়েকটি, তাই এগুলি চিকিত্সকদের জন্য ভীতিকর, এবং যখন একটি AI মডেল একই কাজ করতে পারে তখন এটি সমানভাবে ভীতিকর।’ এই পূর্ববর্তী প্রদর্শনটি মেডিসিনে LLM-গুলির কাঁচা সম্ভাব্যতা তুলে ধরেছিল কিন্তু মালিকানাধীন সিস্টেমগুলির অন্তর্নিহিত গোপনীয়তা এবং নিয়ন্ত্রণের সমস্যাগুলি সমাধান করার জরুরিতাকেও বাড়িয়ে তুলেছিল। যদি AI এত সক্ষম হয়ে ওঠে, তবে নিশ্চিত করা যে এটি বাস্তব রোগীর ডেটার সাথে নিরাপদে এবং নৈতিকভাবে ব্যবহার করা যেতে পারে তা সর্বাগ্রে গুরুত্বপূর্ণ হয়ে ওঠে।

Meta-র Llama 3.1 405B মডেলের প্রকাশ একটি সম্ভাব্য টার্নিং পয়েন্টের প্রতিনিধিত্ব করে। মডেলটির বিশাল স্কেল - এর ‘405B’ দ্বারা নির্দেশিত, যা 405 বিলিয়ন প্যারামিটারকে নির্দেশ করে (ভেরিয়েবল যা মডেল প্রশিক্ষণের সময় ভবিষ্যদ্বাণী করার জন্য সামঞ্জস্য করে) - ওপেন-সোর্স সম্প্রদায়ের মধ্যে একটি নতুন স্তরের পরিশীলিততার ইঙ্গিত দেয়। এই বিশাল স্কেল পরামর্শ দেয় যে এটি GPT-4-এর মতো শীর্ষ-স্তরের মালিকানাধীন মডেলগুলির পারফরম্যান্সের প্রতিদ্বন্দ্বিতা করার জন্য প্রয়োজনীয় জটিলতা ধারণ করতে পারে। ‘এটি একরকম প্রথমবার ছিল যখন আমরা বিবেচনা করেছিলাম, ওহ, সম্ভবত ওপেন-সোর্স মডেলগুলিতে সত্যিই ভিন্ন কিছু ঘটছে,’ Buckley উল্লেখ করেছেন, চিকিৎসা ডোমেনে Llama 3.1 405B পরীক্ষা করার প্রেরণা ব্যাখ্যা করে।

ভবিষ্যতের পথরেখা: গবেষণা এবং বাস্তব-বিশ্বের একীকরণ

উচ্চ-কার্যকারিতাসম্পন্ন ওপেন-সোর্স মডেলগুলি সংবেদনশীল চিকিৎসা কাজের জন্য কার্যকর এই নিশ্চিতকরণের গভীর প্রভাব রয়েছে। অধ্যাপক Manrai যেমন হাইলাইট করেছেন, গবেষণাটি ‘অনেক নতুন গবেষণা এবং ট্রায়াল আনলক করে এবং খুলে দেয়’। সুরক্ষিত হাসপাতালের নেটওয়ার্কের মধ্যে সরাসরি রোগীর ডেটা নিয়ে কাজ করার ক্ষমতা, বাহ্যিক ডেটা ভাগ করে নেওয়ার নৈতিক এবং লজিস্টিক বাধা ছাড়াই, ক্লিনিকাল AI গবেষণার জন্য একটি বড় বাধা দূর করে।

সম্ভাবনাগুলি কল্পনা করুন:

  • রিয়েল-টাইম ডিসিশন সাপোর্ট (Real-time Decision Support): Electronic Health Record (EHR) সিস্টেমে সরাসরি একত্রিত AI সরঞ্জাম, আগত রোগীর ডেটা রিয়েল-টাইমে বিশ্লেষণ করে সম্ভাব্য রোগ নির্ণয়ের পরামর্শ দেওয়া, গুরুত্বপূর্ণ ল্যাব মান ফ্ল্যাগ করা, বা সম্ভাব্য ওষুধের মিথস্ক্রিয়া সনাক্ত করা, যখন ডেটা হাসপাতালের সিস্টেমের মধ্যে নিরাপদে থাকে।
  • ত্বরান্বিত গবেষণা চক্র (Accelerated Research Cycles): গবেষকরা বড়, স্থানীয় ডেটাসেট ব্যবহার করে দ্রুত AI হাইপোথিসিস পরীক্ষা এবং পরিমার্জন করতে পারেন, সম্ভাব্যভাবে নতুন ডায়াগনস্টিক মার্কার বা চিকিৎসার কার্যকারিতা আবিষ্কারকে ত্বরান্বিত করতে পারেন।
  • হাইপার-স্পেশালাইজড সরঞ্জামগুলির বিকাশ (Development of Hyper-Specialized Tools): দলগুলি কুলুঙ্গি চিকিৎসা বিশেষত্ব বা নির্দিষ্ট, জটিল পদ্ধতির জন্য AI সহকারী তৈরিতে ফোকাস করতে পারে, যা অত্যন্ত প্রাসঙ্গিক অভ্যন্তরীণ ডেটার উপর প্রশিক্ষিত।

প্যারাডাইম স্থানান্তরিত হয়, যেমন Manrai সংক্ষিপ্তভাবে বলেছেন: ‘এই ওপেন সোর্স মডেলগুলির সাহায্যে, আপনি মডেলটিকে ডেটাতে আনতে পারেন, আপনার ডেটা মডেলে পাঠানোর বিপরীতে।’ এই স্থানীয়করণ স্বাস্থ্যসেবা প্রতিষ্ঠান এবং গবেষকদের ক্ষমতায়ন করে, কঠোর গোপনীয়তা মান বজায় রেখে উদ্ভাবনকে উৎসাহিত করে।

অপরিহার্য মানব উপাদান: AI সহকারী হিসাবে, ক্যাপ্টেন নয়

Llama 3.1 405B-এর মতো AI সরঞ্জামগুলির চিত্তাকর্ষক কর্মক্ষমতা এবং প্রতিশ্রুতিশীল সম্ভাবনা সত্ত্বেও, জড়িত গবেষকরা বাস্তবতার একটি গুরুত্বপূর্ণ ডোজ দিয়ে উত্তেজনাকে সংযত করতে দ্রুত। কৃত্রিম বুদ্ধিমত্তা, যতই পরিশীলিত হোক না কেন, এখনও মানব ক্লিনিশিয়ানদের প্রতিস্থাপন নয় - এবং সম্ভবত কখনও হবেও না। Manrai এবং Buckley উভয়ই জোর দিয়েছিলেন যে মানুষের তত্ত্বাবধান একেবারে অপরিহার্য।

LLM সহ AI মডেলগুলির অন্তর্নিহিত সীমাবদ্ধতা রয়েছে:

  • প্রকৃত বোঝার অভাব (Lack of True Understanding): তারা তাদের প্রশিক্ষণ ডেটার উপর ভিত্তি করে প্যাটার্ন সনাক্তকরণ এবং তথ্য সংশ্লেষণে পারদর্শী, কিন্তু তাদের প্রকৃত ক্লিনিকাল অন্তর্দৃষ্টি, সাধারণ জ্ঞান এবং রোগীর জীবনের প্রেক্ষাপট, মানসিক অবস্থা বা অ-মৌখিক ইঙ্গিতের সূক্ষ্মতা বোঝার ক্ষমতার অভাব রয়েছে।
  • পক্ষপাতের সম্ভাবনা (Potential for Bias): AI মডেলগুলি তাদের প্রশিক্ষণ ডেটাতে উপস্থিত পক্ষপাতগুলি উত্তরাধিকার সূত্রে পেতে পারে, যা সম্ভাব্যভাবে বিকৃত সুপারিশ বা নির্ণয়ের দিকে পরিচালিত করে, বিশেষ করে কম প্রতিনিধিত্ব করা রোগী গোষ্ঠীর জন্য। ওপেন-সোর্স মডেলগুলি এখানে একটি সম্ভাব্য সুবিধা প্রদান করে, কারণ প্রশিক্ষণ ডেটা এবং প্রক্রিয়াগুলি কখনও কখনও আরও ঘনিষ্ঠভাবে পরীক্ষা করা যেতে পারে, তবে ঝুঁকি থেকেই যায়।
  • ‘হ্যালুসিনেশন’ এবং ত্রুটি (“Hallucinations” and Errors): LLM গুলি মাঝে মাঝে বিশ্বাসযোগ্য-শোনা কিন্তু ভুল তথ্য তৈরি করার জন্য পরিচিত (তথাকথিত ‘হ্যালুসিনেশন’)। একটি চিকিৎসা প্রেক্ষাপটে, এই ধরনের ত্রুটিগুলির গুরুতর পরিণতি হতে পারে।
  • নতুনত্ব মোকাবেলায় অক্ষমতা (Inability to Handle Novelty): যদিও তারা পরিচিত প্যাটার্নগুলি প্রক্রিয়া করতে পারে, AI রোগের সত্যিকারের নতুন উপস্থাপনা বা উপসর্গের অনন্য সংমিশ্রণগুলির সাথে লড়াই করতে পারে যা তাদের প্রশিক্ষণ ডেটাতে ভালভাবে উপস্থাপিত নয়।

অতএব, চিকিত্সক এবং অন্যান্য স্বাস্থ্যসেবা পেশাদারদের ভূমিকা হ্রাস পায় না বরং রূপান্তরিত হয়। তারা গুরুত্বপূর্ণ যাচাইকারী, ব্যাখ্যাকারী এবং চূড়ান্ত সিদ্ধান্ত গ্রহণকারী হয়ে ওঠে। ‘আমাদের ক্লিনিকাল সহযোগীরা সত্যিই গুরুত্বপূর্ণ ছিলেন, কারণ তারা মডেল যা তৈরি করে তা পড়তে এবং গুণগতভাবে মূল্যায়ন করতে পারে,’ Buckley ব্যাখ্যা করেছেন। AI-এর আউটপুট নিছক একটি পরামর্শ, বৃহত্তর ক্লিনিকাল চিত্রের মধ্যে সমালোচনামূলকভাবে মূল্যায়ন করার জন্য ডেটার একটি অংশ। ‘এই ফলাফলগুলি কেবল তখনই বিশ্বাসযোগ্য যখন আপনি সেগুলি চিকিত্সকদের দ্বারা মূল্যায়ন করাতে পারেন।’

Manrai এই অনুভূতি প্রতিধ্বনিত করেছেন, AI-কে একটি স্বায়ত্তশাসিত ডায়াগনস্টিসিয়ান হিসাবে নয়, বরং একটি মূল্যবান সহকারী হিসাবে কল্পনা করেছেন। একটি পূর্ববর্তী প্রেস রিলিজে, তিনি এই সরঞ্জামগুলিকে ব্যস্ত ক্লিনিশিয়ানদের জন্য সম্ভাব্য ‘অমূল্য সহপাইলট’ হিসাবে ফ্রেম করেছিলেন, যদি সেগুলি ‘বুদ্ধিমানের সাথে ব্যবহার করা হয় এবং বর্তমান স্বাস্থ্য পরিকাঠামোতে দায়িত্বের সাথে অন্তর্ভুক্ত করা হয়’। মূল চাবিকাঠিটি চিন্তাশীল একীকরণের মধ্যে নিহিত, যেখানে AI মানুষের ক্ষমতা বৃদ্ধি করে - সম্ভবত দ্রুত বিশাল রোগীর ইতিহাস সংক্ষিপ্ত করে, জটিল ক্ষেত্রে ডিফারেনশিয়াল ডায়াগনোসিসের পরামর্শ দিয়ে, বা সম্ভাব্য ঝুঁকিগুলি ফ্ল্যাগ করে - ক্লিনিশিয়ানের রায় প্রতিস্থাপন করার চেষ্টা করার পরিবর্তে।

‘তবে এটি অত্যন্ত গুরুত্বপূর্ণ যে চিকিত্সকরা এই প্রচেষ্টাগুলিকে চালিত করতে সহায়তা করেন যাতে AI তাদের জন্য কাজ করে তা নিশ্চিত করা যায়,’ Manrai সতর্ক করেছেন। ক্লিনিকাল AI-এর বিকাশ এবং স্থাপনা অবশ্যই একটি সহযোগিতামূলক প্রচেষ্টা হতে হবে, যা রোগীর যত্নের অগ্রভাগে থাকা ব্যক্তিদের চাহিদা এবং দক্ষতা দ্বারা পরিচালিত হবে, নিশ্চিত করবে যে প্রযুক্তি চিকিৎসার অনুশীলনকে নির্দেশ করার পরিবর্তে পরিবেশন করে। হার্ভার্ডের গবেষণা প্রদর্শন করে যে শক্তিশালী, সুরক্ষিত সরঞ্জামগুলি উপলব্ধ হচ্ছে; পরবর্তী গুরুত্বপূর্ণ পদক্ষেপ হল সেগুলিকে দায়িত্বের সাথে ব্যবহার করা।