এআই 'ওপেন সোর্স' প্রহসন: বৈজ্ঞানিক সততার আহ্বান

ভিত্তিমূলক ধারণার অবমূল্যায়ন: ‘ওপেন সোর্স’-এর অবক্ষয়

‘ওপেন সোর্স’ শব্দটি একসময় প্রযুক্তিগত এবং বৈজ্ঞানিক পরিমণ্ডলে একটি আলোকবর্তিকা হিসেবে দাঁড়িয়েছিল। এটি স্বচ্ছতা, অবাধ প্রবেশাধিকার, সহযোগিতামূলক উন্নতি এবং পুনরুৎপাদনের মৌলিক নীতির উপর ভিত্তি করে একটি শক্তিশালী নৈতিকতার প্রতিনিধিত্ব করত। গবেষক এবং ডেভেলপারদের প্রজন্মের জন্য, এটি জ্ঞান ভাগ করে নেওয়া এবং সম্মিলিত অগ্রগতির প্রতিশ্রুতির প্রতীক ছিল। R Studio-র মতো পরিবেশে পাওয়া মৌলিক পরিসংখ্যান সরঞ্জাম থেকে শুরু করে, যা বিভিন্ন শাখায় অগণিত বিশ্লেষণকে শক্তিশালী করে, OpenFOAM-এর মতো অত্যাধুনিক সিমুলেশন প্ল্যাটফর্ম পর্যন্ত, যা ফ্লুইড ডাইনামিক্সের জটিলতা উন্মোচন করতে ব্যবহৃত হয়, ওপেন-সোর্স সফ্টওয়্যার উদ্ভাবনের জন্য একটি অপরিহার্য অনুঘটক হয়েছে। এটি বিশ্বব্যাপী বিজ্ঞানীদের একে অপরের কাজ পরিদর্শন, যাচাই, পরিবর্তন এবং তার উপর ভিত্তি করে নতুন কিছু তৈরি করার অনুমতি দিয়ে আবিষ্কারকে ত্বরান্বিত করেছে, নিশ্চিত করেছে যে ফলাফলগুলি প্রতিলিপি এবং বৈধ করা যেতে পারে – যা বৈজ্ঞানিক পদ্ধতির মূল ভিত্তি।

তবে, কৃত্রিম বুদ্ধিমত্তার ক্রমবর্ধমান ক্ষেত্রের কারণে এই বিশ্বস্ত পদবীর উপর এখন একটি ছায়া পড়েছে। সাম্প্রতিক সমালোচনামূলক আলোচনায় যেমন তুলে ধরা হয়েছে, যার মধ্যে Nature-এর মতো প্রকাশনাগুলিতে উল্লিখিত বিষয়গুলিও অন্তর্ভুক্ত, একটি উদ্বেগজনক প্রবণতা দেখা দিয়েছে যেখানে বিশিষ্ট AI ডেভেলপাররা তাদের মডেলগুলির জন্য ‘ওপেন সোর্স’ লেবেল গ্রহণ করছে এবং একই সাথে প্রকৃত উন্মুক্ততার জন্য প্রয়োজনীয় গুরুত্বপূর্ণ উপাদানগুলি গোপন রাখছে। এই অনুশীলনটি শব্দটির অর্থকে লঘু করার ঝুঁকি তৈরি করে, এটিকে স্বচ্ছতার প্রতীক থেকে একটি সম্ভাব্য বিভ্রান্তিকর বিপণন স্লোগানে রূপান্তরিত করে। মূল সমস্যাটি প্রায়শই আধুনিক AI সিস্টেমগুলির অনন্য প্রকৃতির মধ্যে নিহিত থাকে। ঐতিহ্যবাহী সফ্টওয়্যারের বিপরীতে যেখানে সোর্স কোড সর্বাধিক গুরুত্বপূর্ণ, বৃহৎ AI মডেলগুলির শক্তি এবং আচরণ তাদের প্রশিক্ষণের জন্য ব্যবহৃত বিশাল ডেটাসেট এবং তাদের সংজ্ঞায়িতকারী জটিল আর্কিটেকচারের সাথে অবিচ্ছেদ্যভাবে যুক্ত। যখন এই প্রশিক্ষণ ডেটা বা মডেলের নির্মাণ এবং ওয়েটিং (weighting) সম্পর্কিত বিস্তারিত তথ্যে প্রবেশাধিকার সীমাবদ্ধ করা হয়, তখন মডেলের কোডের কিছু অংশ উপলব্ধ করা হলেও ‘ওপেন সোর্স’ হওয়ার দাবিটি ফাঁপা শোনায়। এই অসঙ্গতি ওপেন-সোর্স দর্শনের কেন্দ্রবিন্দুতে আঘাত করে, অ্যাক্সেসযোগ্যতার একটি भ्रम তৈরি করে এবং স্বাধীন তদন্ত ও প্রতিলিপিকরণের জন্য সবচেয়ে গুরুত্বপূর্ণ উপাদানগুলিকে অস্পষ্ট করে তোলে।

বৈজ্ঞানিক AI-তে প্রকৃত উন্মুক্ততার অপরিহার্যতা

AI-তে, বিশেষ করে বৈজ্ঞানিক ক্ষেত্রে, প্রকৃত উন্মুক্ততা বজায় রাখার সাথে জড়িত ঝুঁকি এর চেয়ে বেশি হতে পারে না। বিজ্ঞান স্বাধীনভাবে ফলাফল যাচাই করার, পদ্ধতি বোঝার এবং পূর্ববর্তী কাজের উপর ভিত্তি করে নতুন কিছু তৈরি করার ক্ষমতার উপর নির্ভর করে। যখন সরঞ্জামগুলি নিজেরাই – ক্রমবর্ধমান অত্যাধুনিক AI মডেলগুলি – ব্ল্যাক বক্সে পরিণত হয়, তখন এই মৌলিক প্রক্রিয়াটি বিপন্ন হয়ে পড়ে। এমন AI সিস্টেমের উপর নির্ভর করা যার অভ্যন্তরীণ কার্যকলাপ, প্রশিক্ষণ ডেটার পক্ষপাত বা সম্ভাব্য ব্যর্থতার মোডগুলি অস্পষ্ট, গবেষণায় একটি অগ্রহণযোগ্য স্তরের অনিশ্চয়তা প্রবর্তন করে। একজন বিজ্ঞানী কীভাবে একটি AI-এর আউটপুটের উপর ভিত্তি করে আত্মবিশ্বাসের সাথে সিদ্ধান্তে পৌঁছাতে পারেন যদি সেই আউটপুটকে আকারদানকারী কারণগুলি অজানা বা যাচাইযোগ্য না হয়? সম্প্রদায় কীভাবে মালিকানাধীন সিস্টেম দ্বারা উত্পন্ন ফলাফলগুলিতে বিশ্বাস রাখতে পারে যা স্বাধীনভাবে নিরীক্ষা বা প্রতিলিপি করা যায় না?

বিজ্ঞানে ওপেন-সোর্স সফ্টওয়্যারের ঐতিহাসিক সাফল্য একটি সুস্পষ্ট বৈপরীত্য এবং একটি স্পষ্ট মানদণ্ড প্রদান করে। ঐতিহ্যবাহী ওপেন-সোর্স প্রকল্পগুলিতে অন্তর্নিহিত স্বচ্ছতা বিশ্বাসকে উৎসাহিত করেছে এবং শক্তিশালী পিয়ার রিভিউ সক্ষম করেছে। গবেষকরা অ্যালগরিদমগুলি পরীক্ষা করতে, তাদের সীমাবদ্ধতা বুঝতে এবং নির্দিষ্ট প্রয়োজনের জন্য সেগুলিকে মানিয়ে নিতে পারতেন। এই সহযোগিতামূলক ইকোসিস্টেম বায়োইনফরমেটিক্স থেকে অ্যাস্ট্রোফিজিক্স পর্যন্ত বিভিন্ন ক্ষেত্রে অগ্রগতি ত্বরান্বিত করেছে। বৈজ্ঞানিক আবিষ্কারে বিপ্লব ঘটানোর জন্য AI-এর সম্ভাবনা অপরিসীম, যা জটিল ডেটাসেট বিশ্লেষণ, হাইপোথিসিস তৈরি এবং অভূতপূর্ব স্কেলে জটিল প্রক্রিয়াগুলি সিমুলেট করার প্রতিশ্রুতি দেয়। যাইহোক, এই সম্ভাবনা উপলব্ধি করা সেই একই স্বচ্ছতা এবং পুনরুৎপাদনযোগ্যতার নীতিগুলি বজায় রাখার উপর নির্ভর করে যা সর্বদা বৈজ্ঞানিক অগ্রগতিকে ভিত্তি দিয়েছে। বন্ধ, মালিকানাধীন AI সিস্টেমের দিকে একটি স্থানান্তর, এমনকি যেগুলি ‘উন্মুক্ত’ হিসাবে ছদ্মবেশ ধারণ করে, গবেষণা সম্প্রদায়কে খণ্ডিত করার, সহযোগিতায় বাধা দেওয়ার এবং শেষ পর্যন্ত বোঝার এবং বৈধকরণের পথে বাধা তৈরি করে আবিষ্কারের গতি কমিয়ে দেওয়ার হুমকি দেয়। বৈজ্ঞানিক প্রচেষ্টার জন্য এমন সরঞ্জাম প্রয়োজন যা কেবল শক্তিশালীই নয়, স্বচ্ছ এবং বিশ্বাসযোগ্যও বটে।

ডেটা সংক্রান্ত জটিলতা: AI-এর স্বচ্ছতার চ্যালেঞ্জ

AI-তে ‘ওপেন সোর্স’ বিতর্কের কেন্দ্রবিন্দুতে রয়েছে প্রশিক্ষণ ডেটার গুরুত্বপূর্ণ বিষয়টি। প্রচলিত সফ্টওয়্যারের বিপরীতে যা প্রাথমিকভাবে তার কোড দ্বারা সংজ্ঞায়িত হয়, বৃহৎ ভাষা মডেল (LLMs) এবং অন্যান্য ভিত্তিগত AI সিস্টেমগুলি তাদের বিকাশের সময় গৃহীত বিশাল ডেটাসেট দ্বারা মৌলিকভাবে আকার পায়। এই ডেটার বৈশিষ্ট্য, পক্ষপাত এবং উৎস মডেলের আচরণ, তার ক্ষমতা এবং তার সম্ভাব্য সীমাবদ্ধতাগুলিকে গভীরভাবে প্রভাবিত করে। তাই, AI-তে প্রকৃত উন্মুক্ততার জন্য এই ডেটা সম্পর্কিত স্বচ্ছতার একটি স্তর প্রয়োজন যা কেবল মডেল ওয়েটস (weights) বা ইনফারেন্স কোড (inference code) প্রকাশ করার চেয়ে অনেক বেশি।

বর্তমানে ‘ওপেন সোর্স’ ছাতার অধীনে বাজারজাত করা অনেক মডেল এই ক্ষেত্রে সুস্পষ্টভাবে পিছিয়ে আছে। Meta-র Llama সিরিজ, Microsoft-এর Phi-2, বা Mistral AI-এর Mixtral-এর মতো বিশিষ্ট উদাহরণগুলি বিবেচনা করুন। যদিও এই সংস্থাগুলি নির্দিষ্ট উপাদানগুলি প্রকাশ করে, যা ডেভেলপারদের মডেলগুলি চালাতে বা ফাইন-টিউন (fine-tune) করতে দেয়, তারা প্রায়শই অন্তর্নিহিত প্রশিক্ষণ ডেটা সম্পর্কে উল্লেখযোগ্য বিধিনিষেধ আরোপ করে বা সামান্য বিবরণ প্রদান করে। জড়িত ডেটাসেটগুলি বিশাল, মালিকানাধীন, সামান্য কিউরেশন (curation) সহ ওয়েব থেকে স্ক্র্যাপ (scrape) করা, বা লাইসেন্সিং সীমাবদ্ধতার অধীন হতে পারে, যা সম্পূর্ণ পাবলিক রিলিজকে চ্যালেঞ্জিং বা অসম্ভব করে তোলে। যাইহোক, নিম্নলিখিত বিষয়গুলি সম্পর্কে ব্যাপক তথ্য ছাড়া:

  • ডেটার উৎস: তথ্য কোথা থেকে এসেছে? এটি কি প্রধানত টেক্সট, ছবি, কোড ছিল? কোন ওয়েবসাইট, বই বা ডেটাবেস থেকে?
  • ডেটা কিউরেশন: ডেটা কীভাবে ফিল্টার, পরিষ্কার এবং প্রক্রিয়া করা হয়েছিল? তথ্য অন্তর্ভুক্ত বা বাদ দেওয়ার জন্য কোন মানদণ্ড ব্যবহার করা হয়েছিল?
  • ডেটার বৈশিষ্ট্য: ডেটার মধ্যে পরিচিত পক্ষপাতগুলি কী কী (যেমন, জনসংখ্যাতাত্ত্বিক, সাংস্কৃতিক, ভাষাগত)? এটি কোন সময়কালকে কভার করে?
  • প্রিপ্রসেসিং ধাপ: প্রশিক্ষণের আগে ডেটাতে কী কী রূপান্তর প্রয়োগ করা হয়েছিল?

…স্বাধীন গবেষকদের পক্ষে মডেলের আচরণ সম্পূর্ণরূপে বোঝা, এর বিকাশ প্রতিলিপি করা, বা এর সম্ভাব্য পক্ষপাত এবং ব্যর্থতার পয়েন্টগুলি সমালোচনামূলকভাবে মূল্যায়ন করা অত্যন্ত কঠিন হয়ে পড়ে। ডেটার এই স্বচ্ছতার অভাবই প্রধান কারণ যার জন্য অনেক বর্তমান ‘ওপেন সোর্স’ AI রিলিজ সফ্টওয়্যার জগতে প্রতিষ্ঠিত প্রকৃত উন্মুক্ততার চেতনা, যদি অক্ষর না হয়, পূরণ করতে ব্যর্থ হয়। এর বিপরীতে, Allen Institute for AI-এর OLMo মডেল বা LLM360-এর CrystalCoder-এর মতো কমিউনিটি-চালিত প্রচেষ্টাগুলি তাদের ডেটা এবং প্রশিক্ষণ পদ্ধতি সম্পর্কিত বৃহত্তর স্বচ্ছতা প্রদানের জন্য আরও সমন্বিত প্রচেষ্টা চালিয়েছে, যা ঐতিহ্যবাহী ওপেন-সোর্স মানগুলির সাথে আরও সঙ্গতিপূর্ণ একটি উচ্চতর মান নির্ধারণ করেছে।

‘ওপেনওয়াশিং’: কৌশলগত লেবেলিং নাকি নিয়ন্ত্রক ফাঁকি?

যেসব সত্তা ‘ওপেন সোর্স’-এর নীতিগুলি সম্পূর্ণরূপে গ্রহণ করে না, তাদের দ্বারা এই লেবেলটির আত্মসাৎকরণ ‘ওপেনওয়াশিং’ সম্পর্কে উদ্বেগ বাড়িয়েছে। এই শব্দটি স্বচ্ছতা এবং অ্যাক্সেসযোগ্যতার সংশ্লিষ্ট স্তরের প্রতি প্রতিশ্রুতিবদ্ধ না হয়ে জনসংযোগ সুবিধা বা কৌশলগত সুবিধার জন্য উন্মুক্ততার ইতিবাচক অর্থ ব্যবহার করার অনুশীলনকে বর্ণনা করে। কোম্পানিগুলো কেন এতে জড়িত হতে পারে? বেশ কয়েকটি কারণ কাজ করতে পারে। ‘ওপেন সোর্স’ ব্র্যান্ডটি উল্লেখযোগ্য সদিচ্ছা বহন করে, যা সম্প্রদায় এবং ভাগ করা অগ্রগতির প্রতিশ্রুতির ইঙ্গিত দেয়, যা ডেভেলপার এবং গ্রাহকদের কাছে আকর্ষণীয় হতে পারে।

অধিকন্তু, Nature এবং অন্যান্য পর্যবেক্ষকদের দ্বারা উল্লিখিত হিসাবে, নিয়ন্ত্রক পরিমণ্ডলগুলি অনিচ্ছাকৃতভাবে এই ধরনের আচরণকে উৎসাহিত করতে পারে। ইউরোপীয় ইউনিয়নের যুগান্তকারী AI Act, যা 2024 সালে চূড়ান্ত হয়েছে, এতে এমন বিধান রয়েছে যা উচ্চ-ঝুঁকিপূর্ণ এবং সাধারণ-উদ্দেশ্যমূলক AI সিস্টেমগুলির উপর কঠোর প্রয়োজনীয়তা আরোপ করে। যাইহোক, এতে ওপেন-সোর্স লাইসেন্সের অধীনে প্রকাশিত AI মডেলগুলির জন্য সম্ভাব্য ছাড় বা হালকা প্রয়োজনীয়তাও রয়েছে। এটি একটি সম্ভাব্য ফাঁক তৈরি করে যেখানে কোম্পানিগুলি কৌশলগতভাবে তাদের মডেলগুলিকে ‘ওপেন সোর্স’ হিসাবে লেবেল করতে পারে – এমনকি যদি প্রশিক্ষণ ডেটার মতো মূল উপাদানগুলি সীমাবদ্ধ থাকে – বিশেষভাবে নিয়ন্ত্রক বাধাগুলি নেভিগেট করতে এবং আরও কঠোর সম্মতি বাধ্যবাধকতা এড়াতে।

নিয়ন্ত্রক সালিশির (regulatory arbitrage) এই সম্ভাবনা গভীরভাবে উদ্বেগজনক। যদি ‘ওপেনওয়াশিং’ শক্তিশালী AI সিস্টেমগুলিকে নিরাপত্তা, ন্যায্যতা এবং জবাবদিহিতা নিশ্চিত করার উদ্দেশ্যে করা তদন্ত এড়াতে দেয়, তবে এটি প্রবিধানের মূল উদ্দেশ্যকেই ক্ষুন্ন করে। এটি বৈজ্ঞানিক সম্প্রদায়কেও একটি অনিশ্চিত অবস্থানে রাখে। গবেষকরা সম্পূর্ণরূপে বন্ধ বাণিজ্যিক অফারগুলির তুলনায় তাদের অ্যাক্সেসযোগ্যতার কারণে এই নামমাত্র ‘উন্মুক্ত’ সিস্টেমগুলির প্রতি আকৃষ্ট হতে পারেন, শুধুমাত্র নিজেদেরকে এমন সরঞ্জামগুলির উপর নির্ভরশীল খুঁজে পেতে যার পদ্ধতিগুলি অস্পষ্ট এবং যাচাইযোগ্য নয়। এই নির্ভরতা বৈজ্ঞানিক সততার সাথে আপস করার ঝুঁকি তৈরি করে, গবেষণা পুনরুৎপাদনযোগ্য, নিরপেক্ষ এবং একটি দৃঢ়, বোধগম্য ভিত্তির উপর নির্মিত তা নিশ্চিত করা কঠিন করে তোলে। একটি পরিচিত লেবেলের আকর্ষণ প্রকৃত বৈজ্ঞানিক অনুসন্ধানে বাধা দেয় এমন অন্তর্নিহিত বিধিনিষেধগুলিকে আড়াল করতে পারে।

AI যুগের জন্য উন্মুক্ততাকে নতুনভাবে সংজ্ঞায়িত করা: OSAID ফ্রেমওয়ার্ক

AI দ্বারা উত্থাপিত অনন্য চ্যালেঞ্জগুলির জন্য ঐতিহ্যবাহী ওপেন-সোর্স সংজ্ঞাগুলির অপর্যাপ্ততা স্বীকার করে, Open Source Initiative (OSI) – ওপেন-সোর্স নীতিগুলির একটি দীর্ঘস্থায়ী তত্ত্বাবধায়ক – একটি গুরুত্বপূর্ণ বিশ্বব্যাপী প্রচেষ্টা শুরু করেছে। তাদের লক্ষ্য হল কৃত্রিম বুদ্ধিমত্তার জন্য বিশেষভাবে তৈরি একটি স্পষ্ট, শক্তিশালী সংজ্ঞা প্রতিষ্ঠা করা: Open Source AI Definition (OSAID 1.0)। এই উদ্যোগটি AI-এর প্রেক্ষাপটে ‘উন্মুক্ত’-এর অর্থ পুনরুদ্ধার করার এবং স্বচ্ছতা ও জবাবদিহিতার জন্য দ্ব্যর্থহীন মান নির্ধারণের দিকে একটি অত্যাবশ্যক পদক্ষেপ।

প্রস্তাবিত OSAID ফ্রেমওয়ার্কের মধ্যে একটি মূল উদ্ভাবন হল ‘ডেটা ইনফরমেশন’ (data information) ধারণা। স্বীকার করে যে বিশাল প্রশিক্ষণ ডেটাসেটগুলির সম্পূর্ণ প্রকাশ প্রায়শই গোপনীয়তার উদ্বেগ, কপিরাইট বিধিনিষেধ বা নিছক স্কেলের কারণে অবাস্তব বা আইনত নিষিদ্ধ হতে পারে, OSAID ডেটা সম্পর্কে ব্যাপক প্রকাশের উপর জোর দেয়। এর মধ্যে ডেভেলপারদের নিম্নলিখিত বিষয়ে বিস্তারিত তথ্য প্রদানের প্রয়োজনীয়তা অন্তর্ভুক্ত রয়েছে:

  1. উৎস এবং গঠন: প্রশিক্ষণ ডেটার উৎস স্পষ্টভাবে চিহ্নিত করা।
  2. বৈশিষ্ট্য: ডেটার মধ্যে পরিচিত বৈশিষ্ট্য, সীমাবদ্ধতা এবং সম্ভাব্য পক্ষপাতগুলি নথিভুক্ত করা।
  3. প্রস্তুতি পদ্ধতি: প্রশিক্ষণের জন্য ডেটা পরিষ্কার, ফিল্টার এবং প্রস্তুত করার জন্য ব্যবহৃত প্রক্রিয়াগুলি ব্যাখ্যা করা।

এমনকি যদি কাঁচা ডেটা ভাগ করা না যায়, এই মেটাডেটা প্রদান করা গবেষক এবং নিরীক্ষকদের AI মডেলকে আকারদানকারী কারণগুলি সম্পর্কে গুরুত্বপূর্ণ অন্তর্দৃষ্টি অর্জন করতে দেয়। এটি সম্ভাব্য পক্ষপাতের আরও ভাল বোঝার সুবিধা দেয়, আরও অবহিত ঝুঁকি মূল্যায়ন সক্ষম করে এবং প্রতিলিপি বা তুলনামূলক অধ্যয়নের চেষ্টা করার জন্য একটি ভিত্তি প্রদান করে।

ডেটা তথ্যের বাইরে, OSI-এর প্রচেষ্টা, Open Future-এর মতো সংস্থাগুলির সমর্থনের পাশাপাশি, একটি ‘ডেটা-কমন্স’ (data-commons) মডেলের দিকে একটি বৃহত্তর পরিবর্তনের প্রচার করে। এটি এমন একটি ভবিষ্যতের কল্পনা করে যেখানে AI প্রশিক্ষণের জন্য প্রয়োজনীয় ডেটাসেটগুলি আরও উন্মুক্তভাবে এবং ন্যায়সঙ্গতভাবে কিউরেট করা হয় এবং উপলব্ধ করা হয়, যা AI বিকাশের জন্য, বিশেষ করে গবেষণা সম্প্রদায়ের মধ্যে, আরও স্বচ্ছ এবং সহযোগিতামূলক ইকোসিস্টেমকে উৎসাহিত করে। OSAID সংজ্ঞাটির লক্ষ্য হল একটি স্পষ্ট মানদণ্ড প্রদান করা যার বিপরীতে AI সিস্টেমগুলি মূল্যায়ন করা যেতে পারে, যা সারফেস-লেভেল লেবেলগুলির বাইরে গিয়ে উন্মুক্ততার প্রতি প্রকৃত প্রতিশ্রুতি মূল্যায়ন করে।

একটি সম্মিলিত দায়িত্ব: প্রকৃত AI স্বচ্ছতা চালনা করা

AI-তে প্রকৃত উন্মুক্ততা নিশ্চিত করার চ্যালেঞ্জ শুধুমাত্র সংজ্ঞা দ্বারা সমাধান করা যায় না; এর জন্য একাধিক স্টেকহোল্ডারদের কাছ থেকে সমন্বিত পদক্ষেপ প্রয়োজন। বৈজ্ঞানিক সম্প্রদায়, অত্যাধুনিক AI সরঞ্জামগুলির ডেভেলপার এবং প্রাথমিক ব্যবহারকারী উভয় হিসাবেই, একটি উল্লেখযোগ্য দায়িত্ব বহন করে। গবেষকদের অবশ্যই OSAID 1.0-এর মতো উদ্যোগগুলির সাথে সক্রিয়ভাবে জড়িত হতে হবে, এর নীতিগুলি বুঝতে হবে এবং তাদের গ্রহণের জন্য সমর্থন করতে হবে। তাদের ব্যবহার করার জন্য বিবেচনা করা AI মডেলগুলির ‘উন্মুক্ততা’ দাবিগুলি সমালোচনামূলকভাবে মূল্যায়ন করতে হবে, যেগুলি প্রশিক্ষণ ডেটা এবং পদ্ধতি সম্পর্কিত বৃহত্তর স্বচ্ছতা প্রদান করে সেগুলিকে অগ্রাধিকার দিতে হবে, এমনকি যদি এর জন্য আপাতদৃষ্টিতে সুবিধাজনক কিন্তু অস্পষ্ট সিস্টেমগুলির আকর্ষণ প্রতিরোধ করার প্রয়োজন হয়। প্রকাশনা, সম্মেলন এবং প্রাতিষ্ঠানিক আলোচনায় যাচাইযোগ্য, পুনরুৎপাদনযোগ্য AI সরঞ্জামগুলির প্রয়োজনীয়তার কথা তুলে ধরা অত্যন্ত গুরুত্বপূর্ণ।

সরকারি অর্থায়ন সংস্থা এবং সরকারি সংস্থাগুলিরও একটি গুরুত্বপূর্ণ ভূমিকা পালন করতে হবে। তারা অনুদানের প্রয়োজনীয়তা এবং সংগ্রহ নীতির মাধ্যমে যথেষ্ট প্রভাব বিস্তার করে। US National Institutes of Health (NIH)-এর মতো প্রতিষ্ঠান, যা ইতিমধ্যে তার অর্থায়নের মাধ্যমে উত্পন্ন গবেষণা ডেটার জন্য উন্মুক্ত লাইসেন্সিং বাধ্যতামূলক করে, একটি মূল্যবান উদাহরণ প্রদান করে। একইভাবে, ইতালির সরকারি প্রশাসন সংস্থাগুলির জন্য ওপেন-সোর্স সফ্টওয়্যারকে অগ্রাধিকার দেওয়ার প্রয়োজনীয়তার মতো উদাহরণগুলি দেখায় যে কীভাবে নীতি গ্রহণকে চালিত করতে পারে। এই নীতিগুলি AI-এর ক্ষেত্রে প্রসারিত করা যেতে পারে এবং করা উচিত। সরকার এবং অর্থায়ন সংস্থাগুলির বিবেচনা করা উচিত:

  • সরকারিভাবে অর্থায়নকৃত AI গবেষণা ও উন্নয়নের জন্য শক্তিশালী Open Source AI মান (যেমন OSAID) মেনে চলা বাধ্যতামূলক করা।
  • গবেষণা-কেন্দ্রিক AI মডেল প্রশিক্ষণের জন্য উপযুক্ত সত্যিকারের উন্মুক্ত, উচ্চ-মানের ডেটাসেট – একটি ‘ডেটা কমন্স’ – তৈরিতে বিনিয়োগ করা।
  • নিশ্চিত করা যে EU AI Act-এর মতো প্রবিধানগুলি এমনভাবে প্রয়োগ করা হয় যা ‘ওপেনওয়াশিং’ প্রতিরোধ করে এবং সমস্ত শক্তিশালী AI সিস্টেমকে তাদের লাইসেন্সিং দাবি নির্বিশেষে জবাবদিহি করে।

পরিশেষে, গবেষণায় AI-এর ভবিষ্যত সুরক্ষিত করার জন্য একটি ঐক্যবদ্ধ ফ্রন্ট প্রয়োজন। বিজ্ঞানীদের স্বচ্ছতার দাবি করতে হবে, প্রতিষ্ঠানগুলিকে এমন নীতি বাস্তবায়ন করতে হবে যা প্রকৃত উন্মুক্ততাকে অগ্রাধিকার দেয়, এবং নিয়ন্ত্রকদের নিশ্চিত করতে হবে যে ‘ওপেন সোর্স’ লেবেলটি জবাবদিহিতার প্রতি একটি অর্থপূর্ণ প্রতিশ্রুতি নির্দেশ করে, একটি সুবিধাজনক মুক্তির পথ নয়। এই সম্মিলিত প্রচেষ্টা ছাড়া, বৈজ্ঞানিক আবিষ্কারের জন্য AI-এর অপরিমেয় সম্ভাবনা বন্ধ, মালিকানাধীন সিস্টেম দ্বারা প্রভাবিত একটি ল্যান্ডস্কেপ দ্বারা আপোস করার ঝুঁকিতে রয়েছে, যা বৈজ্ঞানিক অগ্রগতির সহযোগিতামূলক এবং যাচাইযোগ্য প্রকৃতিকে মৌলিকভাবে ক্ষুন্ন করে। ভবিষ্যতের গবেষণার অখণ্ডতা ভারসাম্যের উপর ঝুলে আছে।