ভাইরাসবিদ্যায় এআই: জৈব বিপদ বাড়ছে

ভাইরাসবিদ্যায় এআই-এর ক্রমবর্ধমান দক্ষতা জৈব বিপদের উদ্বেগ বাড়াচ্ছে

একটি যুগান্তকারী গবেষণা প্রকাশ করেছে যে উন্নত কৃত্রিম বুদ্ধিমত্তা (এআই) মডেল, যেমন চ্যাটজিপিটি (ChatGPT) এবং ক্লড (Claude) প্ল্যাটফর্মগুলো, ভাইরাসবিদ্যা ভেজা ল্যাবগুলোতে (virology wet labs) সমস্যা সমাধানের ক্ষমতা প্রদর্শন করছে যা পিএইচডি (PhD) ডিগ্রীধারী অভিজ্ঞ ভাইরাসবিদদের চেয়েও বেশি। এই আবিষ্কার, রোগ প্রতিরোধের অগ্রগতিতে বিশাল সম্ভাবনা ধারণ করার পাশাপাশি, এআই-এর মারাত্মক জৈব অস্ত্র তৈরির জন্য অপব্যবহারের সম্ভাবনা সম্পর্কে উল্লেখযোগ্য উদ্বেগ সৃষ্টি করেছে, বিশেষ করে যাদের প্রয়োজনীয় দক্ষতা এবং নৈতিক বিবেচনা নেই তাদের দ্বারা।

ভাইরাসবিদ্যায় এআই-এর দ্বিধারী তলোয়ার

এই গবেষণাটি, যা বিশেষভাবে TIME-এর সাথে শেয়ার করা হয়েছে, সেন্টার ফর এআই সেফটি (Center for AI Safety), এমআইটি-এর মিডিয়া ল্যাব (MIT’s Media Lab), ইউএফএবিসি (UFABC) (একটি ব্রাজিলিয়ান বিশ্ববিদ্যালয়), এবং সিকিউরবায়ো (SecureBio) নামক একটি অলাভজনক সংস্থার মধ্যে একটি যৌথ প্রচেষ্টা, যা মহামারী প্রতিরোধে নিবেদিত। গবেষণা দলটি শীর্ষস্থানীয় ভাইরাসবিদদের সাথে পরামর্শ করে একটি অত্যন্ত কঠিন ব্যবহারিক পরীক্ষা ডিজাইন করেছে যা ভাইরাসবিদ্যা গবেষণায় সাধারণত ব্যবহৃত জটিল ল্যাব পদ্ধতি এবং প্রোটোকলগুলোর কার্যকরভাবে সমস্যা সমাধানের জন্য এআই মডেলগুলোর ক্ষমতা মূল্যায়ন করে।

পরীক্ষার ফলাফল ছিল চমকপ্রদ। পিএইচডি (PhD) স্তরের ভাইরাসবিদরা, তাদের ব্যাপক প্রশিক্ষণ এবং অভিজ্ঞতা থাকা সত্ত্বেও, তাদের ঘোষিত দক্ষতার ক্ষেত্রে মাত্র ২২.১% গড় নির্ভুলতা স্কোর অর্জন করেছেন। এর বিপরীতে, ওপেনএআই-এর ও৩ (OpenAI’s o3) মডেল ৪৩.৮% এর একটি চিত্তাকর্ষক নির্ভুলতা অর্জন করেছে, যেখানে গুগল-এর জেমিনি ২.৫ প্রো (Google’s Gemini 2.5 Pro) ৩৭.৬% স্কোর করেছে। এই ফলাফলগুলো থেকে বোঝা যায় যে এআই মডেলগুলো দ্রুত ভাইরাসবিদ্যা ল্যাবগুলোতে জটিল কাজগুলো সম্পাদন করার জন্য প্রয়োজনীয় জ্ঞান এবং দক্ষতা অর্জন করছে, যা সম্ভবত কিছু ক্ষেত্রে মানব বিশেষজ্ঞদের ক্ষমতাকেও ছাড়িয়ে যাচ্ছে।

জৈব অস্ত্র তৈরি নিয়ে উদ্বেগ

সিকিউরবায়ো-র গবেষণা বিজ্ঞানী এবং গবেষণার সহ-লেখক সেথ ডোনোগু (Seth Donoughe) এই অনুসন্ধানের প্রভাব সম্পর্কে তার উদ্বেগ প্রকাশ করেছেন। তিনি উল্লেখ করেছেন যে, ইতিহাসের প্রথমবারের মতো, কার্যত এই এআই মডেলগুলোতে অ্যাক্সেস আছে এমন যে কেউ একজন অ-বিচারিক এআই ভাইরাসবিদ্যা বিশেষজ্ঞ পেতে পারে, যা সম্ভবত জৈব অস্ত্র তৈরির জন্য প্রয়োজনীয় জটিল ল্যাব প্রক্রিয়াগুলোর মাধ্যমে তাদের পথ দেখাতে পারে।

ডোনোগু জোর দিয়ে বলেন যে ইতিহাসজুড়ে, জৈব অস্ত্র তৈরির জন্য অসংখ্য প্রচেষ্টা চালানো হয়েছে, তবে প্রয়োজনীয় দক্ষতার অভাবে এই প্রচেষ্টাগুলোর অনেকগুলি ব্যর্থ হয়েছে। তিনি সতর্ক করে বলেন যে এই দক্ষতা প্রদানে সক্ষম এআই মডেলগুলোর ব্যাপক প্রাপ্যতা অপব্যবহারের সম্ভাবনা এবং এই ক্ষমতাগুলো বিতরণে সতর্কতার প্রয়োজনীয়তা সম্পর্কে গুরুতর উদ্বেগ সৃষ্টি করেছে।

  • অ-বিশেষজ্ঞদের দ্বারা অপব্যবহারের ঝুঁকি।
  • মারাত্মক জৈব অস্ত্র তৈরির সম্ভাবনা।
  • এআই ভাইরাসবিদ্যা দক্ষতা বিতরণে সতর্ক থাকার প্রয়োজনীয়তা।

এআই ল্যাবগুলোর উদ্বেগ প্রতিক্রিয়া

গবেষণার ফলাফলের প্রতিক্রিয়ায়, লেখকরা প্রধান এআই ল্যাবগুলোর সাথে ফলাফলগুলো শেয়ার করেছেন, যার ফলে কেউ কেউ ব্যবস্থা নিতে উৎসাহিত হয়েছে। উদাহরণস্বরূপ, এক্সএআই (xAI), একটি ঝুঁকি ব্যবস্থাপনার কাঠামো প্রকাশ করেছে যা তার এআই মডেল গ্রোক (Grok)-এর ভবিষ্যতের সংস্করণগুলোতে ভাইরাসবিদ্যা সুরক্ষা ব্যবস্থা বাস্তবায়নের অভিপ্রায় তুলে ধরে। ওপেনএআই (OpenAI) TIME-কে জানিয়েছে যে তারা গত সপ্তাহে প্রকাশিত তাদের নতুন মডেলগুলোর জন্য “জৈবিক ঝুঁকির জন্য নতুন সিস্টেম-স্তরের প্রশমন” স্থাপন করেছে। অ্যানথ্রোপিক (Anthropic) সাম্প্রতিক সিস্টেম কার্ডগুলোতে কাগজের মডেলের কর্মক্ষমতার ফলাফল অন্তর্ভুক্ত করেছে, তবে কোনো নির্দিষ্ট প্রশমন ব্যবস্থার প্রস্তাব করেনি। গুগল-এর জেমিনি (Google’s Gemini) TIME-এর কাছে মন্তব্য করতে অস্বীকার করেছে।

এই প্রতিক্রিয়াগুলো ভাইরাসবিদ্যায় এআই-এর ক্রমবর্ধমান ক্ষমতার সাথে সম্পর্কিত সম্ভাব্য ঝুঁকি এবং অপব্যবহার প্রতিরোধে সুরক্ষা ব্যবস্থা বাস্তবায়নের প্রয়োজনীয়তা সম্পর্কে এআই ডেভেলপারদের মধ্যে ক্রমবর্ধমান সচেতনতা নির্দেশ করে।

রোগ প্রতিরোধের প্রতিশ্রুতি

জৈব অস্ত্র তৈরি নিয়ে উদ্বেগের পাশাপাশি, এআই ভাইরাসবিদ্যা গবেষণা এবং সংক্রামক রোগের বিরুদ্ধে লড়াইয়ে বিশাল সম্ভাবনাও ধারণ করে। এআই নেতারা দীর্ঘদিন ধরে বায়োমেডিসিনে বিপ্লব ঘটানো এবং নতুন চিকিৎসা ও নিরাময়ের বিকাশের গতি বাড়ানোর জন্য এআই-এর সম্ভাবনাকে স্বীকৃতি দিয়েছেন।

উদাহরণস্বরূপ, ওপেনএআই-এর সিইও (CEO) স্যাম অল্টম্যান (Sam Altman) জানুয়ারিতে হোয়াইট হাউসে (White House) বলেছিলেন যে “এই প্রযুক্তি যতProgress করবে, আমরা অভূতপূর্ব হারে রোগ নিরাময় হতে দেখব।” এই আশাবাদ এই ক্ষেত্রে অগ্রগতির উৎসাহজনক লক্ষণগুলোর দ্বারা সমর্থিত। এই বছরের শুরুতে, ফ্লোরিডা বিশ্ববিদ্যালয়ের ইমার্জিং প্যাথোজেনস ইনস্টিটিউটের (University of Florida’s Emerging Pathogens Institute) গবেষকরা একটি অ্যালগরিদম তৈরি করেছেন যা কোন করোনাভাইরাস ভ্যারিয়েন্ট (coronavirus variant) দ্রুত ছড়াতে পারে তা ভবিষ্যদ্বাণী করতে সক্ষম।

ভাইরাসবিদ্যা ল্যাবের কাজ পরিচালনা করার জন্য এআই-এর ক্ষমতা মূল্যায়ন

এআই ভাইরাসবিদ্যা সম্পর্কিত একাডেমিক-স্টাইলের তথ্য প্রদানের ক্ষেত্রে প্রতিশ্রুতি দেখালেও, ভাইরাসবিদ্যা ল্যাবের কাজ করার ক্ষমতা বোঝার ক্ষেত্রে একটি বড় ব্যবধান রয়ে গেছে। এই ব্যবধান পূরণের জন্য, ডোনোগু এবং তার সহকর্মীরা বিশেষভাবে কঠিন, নন-গুগলযোগ্য (non-Google-able) প্রশ্নগুলোর জন্য একটি পরীক্ষা ডিজাইন করেছেন যার জন্য ব্যবহারিক সহায়তা এবং একাডেমিক গবেষণাপত্রে সাধারণত পাওয়া যায় না এমন ছবি ও তথ্যের ব্যাখ্যার প্রয়োজন হয়।

প্রশ্নগুলো ভাইরাসবিদরা তাদের দৈনন্দিন কাজে যে চ্যালেঞ্জগুলোর মুখোমুখি হন, যেমন নির্দিষ্ট কোষের ধরন এবং পরিস্থিতিতে ভাইরাস কালচার (virus culture) করার সময় সমস্যার সমাধান করা, তা অনুকরণ করার জন্য ডিজাইন করা হয়েছিল।

বিন্যাসটি এমনভাবে ডিজাইন করা হয়েছিল:

  • একটি নির্দিষ্ট পরিস্থিতি উপস্থাপন করা।
  • পরীক্ষার সেটআপ (setup) সম্পর্কে বিস্তারিত তথ্য প্রদান করা।
  • সম্ভাব্য সমস্যা চিহ্নিত করার জন্য এআই-কে জিজ্ঞাসা করা।

ব্যবহারিক পরীক্ষায় ভাইরাসবিদদের চেয়ে এআই-এর ভালো ফল

পরীক্ষার ফলাফলে দেখা গেছে যে কার্যত প্রতিটি এআই মডেল পিএইচডি (PhD) স্তরের ভাইরাসবিদদের চেয়ে ভালো ফল করেছে, এমনকি তাদের নিজ নিজ দক্ষতার ক্ষেত্রেও। এই অনুসন্ধান থেকে বোঝা যায় যে এআই মডেলগুলো কেবল বিশাল পরিমাণে ভাইরাসবিদ্যা জ্ঞান অ্যাক্সেস এবং প্রক্রিয়াকরণে সক্ষম নয়, বরং এই জ্ঞানকে ল্যাবে ব্যবহারিক সমস্যা সমাধানে প্রয়োগ করতেও সক্ষম।

গবেষকরা আরও দেখেছেন যে মডেলগুলো সময়ের সাথে সাথে উল্লেখযোগ্য উন্নতি দেখিয়েছে, যা ইঙ্গিত করে যে তারা ক্রমাগত ভাইরাসবিদ্যায় তাদের দক্ষতা শিখছে এবং পরিমার্জন করছে। উদাহরণস্বরূপ, অ্যানথ্রোপিকের ক্লড ৩.৫ সনেট (Anthropic’s Claude 3.5 Sonnet) তার জুন ২০২৪ মডেল থেকে অক্টোবর ২০২৪ মডেলে ২৬.৯% থেকে ৩৩.৬% নির্ভুলতায় উন্নীত হয়েছে। এবং ফেব্রুয়ারিতে ওপেনএআই-এর জিপিটি ৪.৫-এর (OpenAI’s GPT 4.5) একটি প্রিভিউ (preview) জিপিটি-৪ও (GPT-4o) থেকে প্রায় ১০ শতাংশ পয়েন্ট বেশি ফল করেছে।

এআই-এর ক্রমবর্ধমান ক্ষমতার প্রভাব

সেন্টার ফর এআই সেফটির (Center for AI Safety) পরিচালক ড্যান হেন্ড্রিক্স (Dan Hendrycks) জোর দিয়ে বলেন যে এআই মডেলগুলো এখন উদ্বেগের কারণ হওয়া পরিমাণ ব্যবহারিক জ্ঞান অর্জন করছে। যদি এআই মডেলগুলো সত্যিই ভেজা ল্যাবের সেটিংগুলোতে (wet lab settings) গবেষণায় যেমনটা বলা হয়েছে তেমনই সক্ষম হয়, তবে এর প্রভাব সুদূরপ্রসারী।

অন্যদিকে, এআই অভিজ্ঞ ভাইরাসবিদদের ভাইরাস মোকাবেলায় তাদের গুরুত্বপূর্ণ কাজে অমূল্য সহায়তা প্রদান করতে পারে, ঔষধ এবং ভ্যাকসিন (vaccine) বিকাশের সময়সীমা ত্বরান্বিত করতে পারে এবং ক্লিনিক্যাল ট্রায়াল (clinical trial) এবং রোগ সনাক্তকরণ উন্নত করতে পারে। জন হপকিন্স সেন্টার ফর হেলথ সিকিউরিটির (Johns Hopkins Center for Health Security) পরিচালক টম ইংলেসবি (Tom Inglesby) উল্লেখ করেছেন যে এআই বিশ্বের বিভিন্ন অংশে বিজ্ঞানীদের ক্ষমতায়ন করতে পারে, বিশেষ করে যাদের বিশেষ দক্ষতা বা সংস্থান নেই, তাদের দেশে সংঘটিত রোগগুলোর উপর মূল্যবান দৈনন্দিন কাজ পরিচালনা করতে পারে।

  • ঔষধ এবং ভ্যাকসিন বিকাশের গতি বাড়ানো।
  • ক্লিনিক্যাল ট্রায়াল এবং রোগ সনাক্তকরণ উন্নত করা।
  • সংস্থান-সীমিত সেটিংসে বিজ্ঞানীদের ক্ষমতায়ন করা।

খারাপ উদ্দেশ্যপ্রণোদিত অভিনেতাদের দ্বারা অপব্যবহারের ঝুঁকি

অন্যদিকে, এই গবেষণাটি খারাপ উদ্দেশ্যপ্রণোদিত অভিনেতাদের দ্বারা এআই-এর সম্ভাব্য অপব্যবহার সম্পর্কে গুরুতর উদ্বেগ উত্থাপন করে যারা এই মডেলগুলো ব্যবহার করে ভাইরাস তৈরি করতে শিখতে পারে বায়োসেফটি লেভেল ৪ (Biosafety Level 4) (বিএসএল-৪) (BSL-4) পরীক্ষাগারে প্রবেশের জন্য প্রয়োজনীয় সাধারণ প্রশিক্ষণ এবং অ্যাক্সেসের প্রয়োজন ছাড়াই, যা সবচেয়ে বিপজ্জনক এবং বহিরাগত সংক্রামক এজেন্টগুলোকে পরিচালনা করে। ইংলেসবি সতর্ক করে বলেন যে এআই আরও বেশি লোককে কম প্রশিক্ষণ দিয়ে ভাইরাস পরিচালনা ও ম্যানিপুলেট (manipulate) করতে সক্ষম করতে পারে, যা সম্ভাব্য বিপর্যয়কর পরিণতি ঘটাতে পারে।

হেন্ড্রিক্স এআই কোম্পানিগুলোকে এই ধরণের ব্যবহার প্রতিরোধ করার জন্য গার্ডরেল (guardrail) বাস্তবায়ন করার আহ্বান জানিয়েছেন, পরামর্শ দিয়েছেন যে ছয় মাসের মধ্যে এটি করতে ব্যর্থ হলে তা বেপরোয়া হবে। তিনি প্রস্তাব করেছেন যে একটি সমাধান হল এই মডেলগুলোকে গেটেড (gated) করা, যাতে শুধুমাত্র MIT-এর জীববিজ্ঞান বিভাগের গবেষকদের মতো মারাত্মক ভাইরাস ম্যানিপুলেট (manipulate) করার বৈধ কারণ রয়েছে এমন বিশ্বস্ত তৃতীয় পক্ষগুলোর তাদের আনফিল্টারড (unfiltered) সংস্করণগুলোতে অ্যাক্সেস থাকে।

  • গার্ডরেল বাস্তবায়নের মাধ্যমে অপব্যবহার প্রতিরোধ করা।
  • বিশ্বস্ত পক্ষগুলোর অ্যাক্সেস সীমাবদ্ধ করার জন্য মডেলগুলোকে গেটিং (gating) করা।
  • নিশ্চিত করা যে শুধুমাত্র অনুমোদিত গবেষকদের সংবেদনশীল ক্ষমতাগুলোতে অ্যাক্সেস আছে।

শিল্প স্ব-নিয়ন্ত্রণের সম্ভাব্যতা

হেন্ড্রিক্স বিশ্বাস করেন যে এআই কোম্পানিগুলোর পক্ষে স্ব-নিয়ন্ত্রণ করা এবং এই ধরণের সুরক্ষা ব্যবস্থা বাস্তবায়ন করা প্রযুক্তিগতভাবে সম্ভব। যাইহোক, তিনি উদ্বিগ্ন যে কিছু কোম্পানি তাদের পা টেনে ধরবে বা প্রয়োজনীয় পদক্ষেপ নিতে ব্যর্থ হবে।

এক্সএআই (xAI), ইলন মাস্কের (Elon Musk) এআই ল্যাব (AI lab), কাগজটি স্বীকার করেছে এবং ইঙ্গিত দিয়েছে যে কোম্পানি ভাইরাসবিদ্যা প্রশ্নের উত্তর দেওয়ার বিষয়ে কিছু সুরক্ষা ব্যবহার করবে, যার মধ্যে গ্রোককে (Grok) ক্ষতিকারক অনুরোধ প্রত্যাখ্যান করার প্রশিক্ষণ দেওয়া এবং ইনপুট (input) ও আউটপুট (output) ফিল্টার (filter) প্রয়োগ করা অন্তর্ভুক্ত।

ওপেনএআই (OpenAI) জানিয়েছে যে এর নতুন মডেল, ও৩ (o3) এবং ও৪-মিনি (o4-mini), জৈবিক-ঝুঁকি সম্পর্কিত সুরক্ষাগুলোর একটি অ্যারে (array) দিয়ে স্থাপন করা হয়েছে, যার মধ্যে ক্ষতিকারক আউটপুট (output) ব্লক (block) করা অন্তর্ভুক্ত। কোম্পানিটি আরও জানিয়েছে যে এটি একটি হাজার ঘণ্টার রেড-টিমিং (red-teaming) প্রচারণা চালিয়েছে যেখানে ৯৮.৭% অনিরাপদ জৈব-সম্পর্কিত কথোপকথন সফলভাবে চিহ্নিত এবং ব্লক (block) করা হয়েছে।

  • ক্ষতিকারক অনুরোধ প্রত্যাখ্যান করার জন্য এআই মডেলগুলোকে প্রশিক্ষণ দেওয়া।
  • বিপজ্জনক কনটেন্ট (content) ব্লক (block) করার জন্য ইনপুট (input) ও আউটপুট (output) ফিল্টার (filter) প্রয়োগ করা।
  • ঝুঁকিগুলো চিহ্নিত এবং প্রশমিত করার জন্য রেড-টিমিং (red-teaming) অনুশীলন পরিচালনা করা।

নীতি এবং নিয়ন্ত্রণের প্রয়োজন

এই প্রচেষ্টা সত্ত্বেও, ইংলেসবি যুক্তি দেন যে শিল্প স্ব-নিয়ন্ত্রণ যথেষ্ট নয় এবং এআই-এর জৈব ঝুঁকিগুলো নিয়ন্ত্রণের জন্য আইনপ্রণেতা এবং রাজনৈতিক নেতাদের একটি নীতিগত পদ্ধতির বিকাশের আহ্বান জানিয়েছেন। তিনি জোর দিয়ে বলেন যে কিছু কোম্পানি এই ঝুঁকিগুলো মোকাবেলায় সময় এবং অর্থ বিনিয়োগ করছে, অন্যরা নাও করতে পারে, এমন একটি পরিস্থিতি তৈরি করছে যেখানে জনসাধারণের কী ঘটছে সে সম্পর্কে কোনো ধারণা নেই।

ইংলেসবি প্রস্তাব করেছেন যে একটি এলএলএম (LLM)-এর নতুন সংস্করণ প্রকাশের আগে, এটি মূল্যায়ন করা উচিত যে এটি মহামারী-স্তরের ফলাফল তৈরি করবে না। এর জন্য ভাইরাসবিদ্যায় এআই-এর ক্ষমতা নিয়ন্ত্রণের জন্য আরও বিস্তৃত এবং সমন্বিত পদ্ধতির প্রয়োজন হবে, যার মধ্যে শিল্প এবং সরকারি উভয় অংশীদার জড়িত থাকবে।

  • মহামারী-স্তরের ফলাফল প্রতিরোধ করার জন্য প্রকাশের আগে এলএলএম (LLM) মূল্যায়ন করা।
  • এআই-এর জৈব ঝুঁকিগুলো নিয়ন্ত্রণের জন্য একটি বিস্তৃত নীতিগত পদ্ধতি তৈরি করা।
  • নিয়ন্ত্রণ প্রক্রিয়ায় শিল্প এবং সরকারি উভয় অংশীদারকে জড়িত করা।

উদ্ভাবন এবং সুরক্ষার মধ্যে ভারসাম্য রক্ষা করা

চ্যালেঞ্জটি হল এআই-এ উদ্ভাবনকে উৎসাহিত করা এবং এই শক্তিশালী প্রযুক্তিগুলো মারাত্মক জৈব অস্ত্র তৈরির জন্য অপব্যবহার করা হবে না তা নিশ্চিত করার মধ্যে একটি ভারসাম্য বজায় রাখা। এর জন্য একটি বহুমাত্রিক পদ্ধতির প্রয়োজন যার মধ্যে রয়েছে:

  • অপব্যবহার প্রতিরোধের জন্য শক্তিশালী সুরক্ষা ব্যবস্থা তৈরি করা।
  • বিশ্বস্ত পক্ষগুলোর জন্য সংবেদনশীল ক্ষমতাগুলোতে অ্যাক্সেস সীমাবদ্ধ করা।
  • ভাইরাসবিদ্যায় এআই-এর ক্ষমতা নিয়ন্ত্রণ করা।
  • দায়িত্বশীল উদ্ভাবন এবং নৈতিক বিবেচনা প্রচার করা।

এই পদক্ষেপগুলো নেওয়ার মাধ্যমে, আমরা ভাইরাসবিদ্যা গবেষণা এবং সংক্রামক রোগের বিরুদ্ধে লড়াইয়ে এআই-এর বিশাল সম্ভাবনাকে কাজে লাগাতে পারি এবং এর অপব্যবহারের সাথে সম্পর্কিত ঝুঁকিগুলো হ্রাস করতে পারি। ভাইরাসবিদ্যায় এআই-এর ভবিষ্যৎ আমাদের এই জটিল ল্যান্ডস্কেপকে (landscape) দায়িত্বের সাথে নেভিগেট (navigate) করার এবং নিশ্চিত করার ক্ষমতার উপর নির্ভর করে যে এই শক্তিশালী প্রযুক্তিগুলো মানবতার উপকারের জন্য ব্যবহৃত হয়।