মেটার লামা ২, মাস্কের গ্রোক নয়

ফেডারেল কর্মীবাহিনীকে সুবিন্যস্ত করার জন্য সরকারি দক্ষতা বিভাগের (Department of Government Efficiency - DOGE) কঠোরভাবে নিরীক্ষিত উদ্যোগে এলন মাস্কের তৈরি করা গ্রোক (Grok) এআই মডেলের পরিবর্তে মেটার (Meta) পুরনো এআই মডেল লামা ২ (Llama 2) ব্যবহার করা হয়েছিল।

“ফর্ক ইন দ্য রোড” মেমো এবং লামা ২-এর ভূমিকা

ওয়্যার্ডের (Wired) করা একটি সমীক্ষা অনুসারে, এলন মাস্কের DOGE-এর অধিভুক্ত সংস্থাগুলি, যারা অফিস অফ পার্সোনেল ম্যানেজমেন্টের (Office of Personnel Management) অধীনে কাজ করে, তারা মেটার লামা ২ মডেল ব্যবহার করে ফেডারেল কর্মচারীদের কাছ থেকে আসা প্রতিক্রিয়াগুলি বিশ্লেষণ করে এবং বিতর্কিত “ফর্ক ইন দ্য রোড” (Fork in the Road) ইমেলের মাধ্যমে কর্মীদের শ্রেণিবদ্ধ করে। এই ইমেলটি জানুয়ারীর শেষের দিকে সরকারের বিভিন্ন দপ্তরে পাঠানো হয়েছিল।

“ফর্ক ইন দ্য রোড” মেমোটি দেখতে অনেকটা মাস্কের টুইটারের (Twitter) কর্মীদের কাছে পাঠানো একটি পূর্ববর্তী বার্তার মতোই ছিল। এই মেমোতে ফেডারেল কর্মীদের সামনে একটি বিকল্প রাখা হয়েছিল: সরকারের সংশোধিত অফিসে প্রত্যাবর্তনের নীতি গ্রহণ করে “আনুগত্য” প্রদর্শন করা অথবা পদত্যাগ করা। সেই সময়ে, এমন গুজব ছড়িয়েছিল যে DOGE সরকারি কর্মচারীদের ডেটা (data) প্রক্রিয়াকরণের জন্য এআই ব্যবহার করছে। এখন এর সত্যতা প্রমাণিত হয়েছে। লামা ২ ব্যবহার করে কর্মচারীদের প্রতিক্রিয়াগুলো যাচাই করা হয়েছে এবং কতজন পদত্যাগ করেছেন, তার সংখ্যা নির্ণয় করা হয়েছে।

লামা ২-এর বিতর্কিত অতীত: সামরিক ব্যবহার এবং মেটার প্রতিক্রিয়া

লামা ২-এর ইতিহাস বিতর্ক থেকে মুক্ত নয়। উল্লেখযোগ্যভাবে, নভেম্বরে, চীনা গবেষকরা লামা ২-কে চীনা সামরিক বাহিনী দ্বারা ব্যবহৃত একটি এআই মডেলের ভিত্তি হিসেবে ব্যবহার করেছিলেন। এই খবর প্রকাশিত হওয়ার পরে ব্যাপক সমালোচনার সৃষ্টি হয়। প্রথমে মেটা গবেষকদের দ্বারা “অননুমোদিত” এবং “পুরানো” মডেল ব্যবহারের নিন্দা করেছিল। কিন্তু পরবর্তীতে মেটা সামরিক ব্যবহারের উপর নিষেধাজ্ঞা তুলে নেয় এবং মার্কিন যুক্তরাষ্ট্রের জাতীয় নিরাপত্তার উদ্দেশ্যে তাদের এআই মডেলের ব্যবহারের সুযোগ বৃদ্ধি করে।

মেটা প্রকাশ্যে ঘোষণা করেছে যে তারা মার্কিন যুক্তরাষ্ট্রের সরকারি সংস্থাগুলির জন্য লামা ২-কে সহজলভ্য করতে প্রতিশ্রুতিবদ্ধ। এর মধ্যে প্রতিরক্ষা এবং জাতীয় নিরাপত্তা অ্যাপ্লিকেশনগুলিতে জড়িত সংস্থাগুলি এবং তাদের প্রচেষ্টাকে সমর্থনকারী বেসরকারী খাতের অংশীদাররাও অন্তর্ভুক্ত রয়েছে। তারা Acccenture, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI, এবং Snowflake-এর মতো সংস্থাগুলির সাথে অংশীদারিত্ব ঘোষণা করেছে। এর মাধ্যমে সরকারি সংস্থাগুলিতে লামা ২-এর ব্যবহার আরও সহজ হবে।

ওয়্যার্ডের মতে, মেটার মডেলগুলির ওপেন-সোর্স (open-source) প্রকৃতির কারণে সরকার সহজেই মাস্কের উদ্দেশ্যগুলি বাস্তবায়নের জন্য এইগুলো ব্যবহার করতে পারবে, এমনকি কোম্পানির স্পষ্ট সম্মতি ছাড়াও। তবে, সরকারের মধ্যে মেটার মডেলগুলির ব্যবহার ঠিক কতটা বিস্তৃত, তা নির্ধারণ করা এখনও একটি কঠিন কাজ। মেটার লামা ৩ এবং লামা ৪-এর মতো উন্নত মডেল থাকা সত্ত্বেও DOGE কেন লামা ২-এর উপর নির্ভর করছে, তা এখনও স্পষ্ট নয়।

লামা ২-এর ব্যবহার সম্পর্কে সীমিত জ্ঞান

DOGE কর্তৃক লামা ২-এর সুনির্দিষ্ট ব্যবহার সম্পর্কে বিস্তারিত তথ্য এখনও পর্যন্ত কম। ওয়্যার্ডের তদন্তে জানা গেছে যে DOGE স্থানীয়ভাবে এই মডেলটি ব্যবহার করেছে। এর মাধ্যমে বোঝা যায় যে ডেটা ইন্টারনেটের মাধ্যমে প্রেরণ করা হয়নি। ফলে অনেক সরকারি কর্মচারী যে গোপনীয়তা নিয়ে উদ্বেগ প্রকাশ করেছিলেন, তা প্রশমিত হতে পারে।

কংগ্রেসের উদ্বেগ এবং তদন্তের আহ্বান

এপ্রিল মাসে রাসেল ভোটকে (Russell Vought) লেখা এক চিঠিতে, ৪০ জনেরও বেশি আইনপ্রণেতা DOGE কর্তৃক এআই-এর ব্যবহার নিয়ে একটি পুঙ্খানুপুঙ্খ তদন্তের দাবি জানিয়েছেন। রাসেল ভোট অফিস অফ ম্যানেজমেন্ট অ্যান্ড বাজেট-এর (Office of Management and Budget) পরিচালক। আইনপ্রণেতারা এমন ব্যবহারের ফলে নিরাপত্তা ঝুঁকি তৈরি হতে পারে বলে আশঙ্কা প্রকাশ করেছেন। তাদের মতে, এর ফলে সরকারের মধ্যে এআই-এর সফল এবং যথাযথ ব্যবহার ব্যাহত হতে পারে।

চিঠিতে বিশেষভাবে DOGE-এর একজন কর্মী এবং স্পেসএক্স-এর (SpaceX) প্রাক্তন কর্মচারীর কথা উল্লেখ করা হয়েছে। এই কর্মী নাকি মাস্কের xAI Grok-2 মডেল ব্যবহার করে একটি “এআই সহকারী” তৈরি করেছেন। এছাড়াও, কন্ট্রাক্ট (contract) এবং ক্রয় ডেটা (procurement data) বিশ্লেষণের জন্য অ্যানথ্রোপিক (Anthropic) এবং মেটা মডেলের উপর ভিত্তি করে “GSAi” নামের একটি চ্যাটবট ব্যবহারের কথাও উল্লেখ করা হয়েছে। DOGE অটোআরআইএফ (AutoRIF) নামের একটি সফটওয়্যার (software) এর সাথেও জড়িত। মনে করা হচ্ছে, এই সফটওয়্যারটি সরকারের বিভিন্ন ক্ষেত্রে ব্যাপক ছাঁটাইয়ের কাজ দ্রুত করার জন্য তৈরি করা হয়েছে।

আইনপ্রণেতারা DOGE কর্তৃক “দুই মিলিয়ন (million) ফেডারেল কর্মীর কাছ থেকে তাদের আগের সপ্তাহের কাজের বিবরণ চেয়ে ইমেলের ডেটা বিশ্লেষণ করার জন্য এআই সিস্টেম ব্যবহারের বিষয়ে গুরুতর উদ্বেগের” কথা উল্লেখ করেছেন। তারা স্বচ্ছতার অভাবের কথাও বলেছেন।

এই ইমেলগুলি “ফর্ক ইন দ্য রোড” ইমেলের পরে পাঠানো হয়েছিল, যেখানে কর্মীদের পাঁচটি বুলেট পয়েন্টে তাদের সাপ্তাহিক অর্জনের কথা জানাতে বলা হয়েছিল। কর্মচারীরা তাদের প্রতিক্রিয়ার প্রকৃতি নিয়ে আশঙ্কা প্রকাশ করেছেন। তাদের ভয় ছিল যে DOGE হয়তো যথাযথ নিরাপত্তা ছাড়পত্র ছাড়াই সংবেদনশীল তথ্য চেয়ে পাঠাচ্ছে।

ওয়্যার্ড নিশ্চিত করতে পারেনি যে লামা ২ এই ইমেলগুলোর উত্তর বিশ্লেষণ করতেও ব্যবহার করা হয়েছিল কিনা। তবে, ফেডারেল কর্মীরা ওয়্যার্ডকে জানিয়েছেন যে DOGE সম্ভবত “ফর্ক ইন দ্য রোড” ইমেল পরীক্ষার কোডটি পুনরায় ব্যবহার করবে, যদি তা বুদ্ধিমানের কাজ হয়।

কেন গ্রোক ব্যবহার করা হয়নি

প্রশ্ন উঠেছে, কেন DOGE গ্রোক ব্যবহার করেনি?

এর সম্ভাব্য কারণ হল গ্রোক সেই সময় একটি মালিকানাধীন মডেল ছিল। তাই জানুয়ারি মাসে DOGE-এর কাজের জন্য এটি সহজলভ্য ছিল না। ওয়্যার্ডের মতে, DOGE ভবিষ্যতে গ্রোকের উপর নির্ভরতা বাড়াতে পারে, বিশেষ করে মাইক্রোসফট (Microsoft) তাদের Azure AI ফাউন্ড্রিতে (Azure AI Foundry) xAI-এর গ্রোক ৩ মডেল হোস্ট (host) করা শুরু করার ঘোষণা দেওয়ার পরে। এর ফলে মডেলটির ব্যবহারের সুযোগ আরও বাড়বে।

আইনপ্রণেতাদের উদ্বেগ: স্বার্থের সংঘাত এবং ডেটা লঙ্ঘন

আইনপ্রণেতারা ভোটেকে (Vought) মাস্কের সম্ভাব্য স্বার্থের সংঘাত নিয়ে তদন্ত করার আহ্বান জানিয়েছেন, পাশাপাশি ডেটা লঙ্ঘনের বিষয়েও সতর্ক করেছেন। তাদের মতে, DOGE কর্তৃক ব্যবহৃত এআই সরকারি ব্যবহারের জন্য এখনও উপযুক্ত নয়।

তারা জোর দিয়ে বলেন যে “যথাযথ সুরক্ষা ব্যবস্থা ছাড়া, একটি এআই সিস্টেমে সংবেদনশীল ডেটা প্রবেশ করানো মানে সেই সিস্টেমের অপারেটরের হাতে ডেটা চলে যাওয়া। এটা জনগণের এবং কর্মচারীদের আস্থার একটি বড় লঙ্ঘন এবং এর ফলে ডেটার চারপাশে সাইবার নিরাপত্তা ঝুঁকি বৃদ্ধি পায়।” তারা আরও উল্লেখ করেন যে “জেনারেটিভ এআই মডেলগুলি প্রায়শই ভুল করে এবং উল্লেখযোগ্য পক্ষপাতিত্ব দেখায়। যথাযথ যাচাইকরণ, স্বচ্ছতা, তদারকি এবং সুরক্ষা ব্যবস্থা ছাড়া উচ্চ-ঝুঁকির সিদ্ধান্ত গ্রহণে এই প্রযুক্তি ব্যবহারের জন্য এখনও প্রস্তুত নয়।”

ওয়্যার্ডের রিপোর্ট অনুসারে, DOGE “ফর্ক ইন দ্য রোড” ইমেলের সংবেদনশীল ডেটা কোনো বাহ্যিক উৎসে পাঠায়নি, তবে আইনপ্রণেতারা এআই সিস্টেমগুলির আরও শক্তিশালী যাচাইয়ের পক্ষে মত দিয়েছেন। তাদের মতে, এর মাধ্যমে “এআই মডেল স্থাপনকারীদের সাথে ব্যক্তিগতভাবে সনাক্তযোগ্য বা সংবেদনশীল তথ্য শেয়ার করার ঝুঁকি” কমানো যেতে পারে।

একটি প্রধান উদ্বেগ হল মাস্ক তার নিজের মডেলগুলিকে ক্রমবর্ধমানভাবে ব্যবহার করতে পারেন। এর মাধ্যমে তিনি এমন সরকারি ডেটা থেকে লাভবান হতে পারেন, যা তার প্রতিযোগীরা ব্যবহারের সুযোগ পায় না। একই সাথে, ডেটা লঙ্ঘনের ঝুঁকিও বাড়তে পারে। আইনপ্রণেতারা আশা করছেন যে DOGE তাদের এআই সিস্টেমগুলি বন্ধ করতে বাধ্য হবে। তবে, ভোটকে DOGE-এর পদ্ধতির সাথে একমত পোষণ করেন। কারণ ফেডারেল ব্যবহারের জন্য তার এআই নির্দেশনায় তিনি সংস্থাগুলিকে “উদ্ভাবনের পথে বাঁধা দূর করতে এবং করদাতাদের জন্য সেরা মূল্য প্রদানে” উৎসাহিত করেছেন।

আইনপ্রণেতাদের চিঠিতে জোর দেওয়া হয়েছে যে “আমরা নতুন, অনুমোদিত এআই প্রযুক্তি ব্যবহারের মাধ্যমে ফেডারেল সরকারকে সমর্থন করি, যা দক্ষতা বা কার্যকারিতা উন্নত করতে পারে। তবে, ফেডারেল ডেটার সাথে যোগাযোগের সময় আমরা নিরাপত্তা, গোপনীয়তা এবং যথাযথ ব্যবহারের মান ত্যাগ করতে পারি না।” তারা আরও বলেন যে “আমরা এআই সিস্টেমগুলির ব্যবহারকে সমর্থন করতে পারি না। প্রায়শই এই সিস্টেমগুলো ভুল তথ্য দেয় এবং পক্ষপাতদুষ্ট হয়। এই কারণে ফেডারেল চাকরি বা ফেডারেল তহবিল বাতিলের সিদ্ধান্তে পর্যাপ্ত স্বচ্ছতা এবং তদারকি ছাড়া এই মডেলগুলো ব্যবহার করা উচিত নয়। ত্রুটিপূর্ণ প্রযুক্তি বা এই ধরনের প্রযুক্তির ত্রুটিপূর্ণ ব্যবহারের কারণে প্রতিভা এবং গুরুত্বপূর্ণ গবেষণা হারানোর ঝুঁকি অনেক বেশি।”

সরকারি দক্ষতা উদ্যোগগুলিতে এআই ব্যবহারের প্রভাব

সরকারি দক্ষতা বিভাগ (DOGE) কর্তৃক কৃত্রিম বুদ্ধিমত্তার ব্যবহার ঘিরে বিতর্ক সৃষ্টি হয়েছে। সংস্থাটি তাদের কাজকর্মকে সুবিন্যস্ত করার জন্য এই প্রযুক্তি ব্যবহার করছে। এই বিতর্কের কেন্দ্রে রয়েছে মেটার লামা ২ মডেলের ব্যবহার। এটি একটি ওপেন-সোর্স এআই। এলন মাস্কের মালিকানাধীন গ্রোক এআই ব্যবহার না করে এই মডেল ব্যবহারের ফলে বিতর্কের মাত্রা আরও বেড়েছে। তাই, সরকারি কাজকর্মের সাথে এআই-এর ব্যবহার, এর সুবিধা ও অসুবিধা, নৈতিক বিবেচনা এবং স্বার্থের সংঘাতের সম্ভাবনা নিয়ে আলোচনা করা প্রয়োজন।

সরকারে এআই ব্যবহারের সুবিধা ও অসুবিধা

সরকারের বিভিন্ন কাজকর্মের সাথে এআই যুক্ত করার মাধ্যমে কার্যকারিতা বৃদ্ধি, ডেটা বিশ্লেষণ এবং সিদ্ধান্ত গ্রহণ প্রক্রিয়ায় উন্নতি আনা সম্ভব। রুটিন কাজগুলি স্বয়ংক্রিয় করা থেকে শুরু করে বিশাল ডেটা সেট থেকে প্রয়োজনীয় তথ্য খুঁজে বের করা পর্যন্ত, এআই উৎপাদনশীলতা বাড়াতে এবং সরকারি পরিষেবা উন্নত করতে পারে। এমন অ্যালগরিদমের (algorithm) কথা ভাবুন, যা অবকাঠামোগত ব্যর্থতা অনুমান করতে পারে, শিক্ষাকে ব্যক্তিগতকৃত করতে পারে অথবা দুর্যোগ ত্রাণ প্রচেষ্টায় সম্পদের সুষ্ঠু ব্যবহার করতে পারে। সম্ভাবনা অফুরন্ত।

তবে, এই প্রযুক্তিগত বিপ্লবের কিছু বিপদও রয়েছে। এআই সিস্টেমের উপর নির্ভরতা নৈতিক দ্বিধা, নিরাপত্তা দুর্বলতা এবং সম্ভাব্য পক্ষপাতিত্বের একটি জটিল জাল তৈরি করে। এআই মডেলগুলিকে ডেটা দিয়ে প্রশিক্ষণ দেওয়া হয়। সেই ডেটাতে যদি সমাজের কুসংস্কার প্রতিফলিত হয়, তবে এআই সেই কুসংস্কারকে আরও বাড়িয়ে তুলবে। এর ফলে সরকারি পরিষেবাগুলিতে ন্যায্যতা এবং সাম্যের প্রতি একটি বড় হুমকি তৈরি হতে পারে। আইন প্রয়োগ, সামাজিক কল্যাণ এবং শিক্ষার মতো ক্ষেত্রগুলিতে বৈষম্যমূলক ফলাফল দেখা যেতে পারে।

তাছাড়া, এআই ব্যবহার স্বচ্ছতা এবং জবাবদিহিতা সম্পর্কে গভীর প্রশ্ন তোলে। যখন অ্যালগরিদম দ্বারা সিদ্ধান্ত নেওয়া হয়, তখন সেই সিদ্ধান্তের পেছনের যুক্তি বোঝা কঠিন হয়ে পড়ে। ফলে সরকারি সংস্থাগুলিকে তাদের কাজের জন্য জবাবদিহি করাও কঠিন হয়ে যায়।

লামা ২ বনাম গ্রোক: একটি জটিল সমস্যা

লামা ২-কে গ্রোকের চেয়ে বেশি প্রাধান্য দেওয়ার কিছু কারণ রয়েছে। লামা ২ একটি ওপেন সোর্স হওয়ায় এটি সহজেই ব্যবহারযোগ্য এবং কাস্টমাইজযোগ্য। এর ফলে সরকারি সংস্থাগুলি কোনো মালিকানাধীন ইকোসিস্টেমে (ecosystem) আবদ্ধ না হয়ে তাদের প্রয়োজন অনুযায়ী এটিকে ব্যবহার করতে পারে। তবে এর মানে হল মালিকানাধীন এআই সলিউশনগুলির (solution) সাথে সাধারণত যে ডেডিকেটেড (dedicated) সাপোর্ট (support) এবং রক্ষণাবেক্ষণ পাওয়া যায়, তা এতে নেই।

অন্যদিকে, গ্রোক একটি মালিকানাধীন এআই। এটি অত্যাধুনিক কর্মক্ষমতা এবং বিশেষ দক্ষতা প্রদানের প্রতিশ্রুতি দেয়। তবে, এটি সম্ভাব্য ভেন্ডর (vendor) লক-ইন (lock-in), ডেটা গোপনীয়তা এবং এআই-এর প্রশিক্ষণ ডেটা থেকে উদ্ভূত পক্ষপাতিত্ব সম্পর্কে উদ্বেগ বাড়ায়। এটি যে কোনও বেসরকারি সংস্থার, বিশেষ করে সরকারের লক্ষ্যের সাথে ঘনিষ্ঠভাবে জড়িত একজন প্রভাবশালী ব্যক্তির সাথে যুক্ত সংস্থার সিদ্ধান্ত গ্রহণের প্রক্রিয়াগুলির উপর অতিরিক্ত খবরদারির সম্ভাবনা তৈরি করতে পারে।

স্বার্থের সংঘাতের আশঙ্কা

এলন মাস্কের সংস্থাগুলি (স্পেসএক্স এবং xAI) সরকারি এআই উদ্যোগগুলিতে জড়িত থাকার কারণে স্বার্থের সংঘাতের আশঙ্কা দেখা দিয়েছে। বিভিন্ন খাতে মাস্কের আগ্রহ থাকার কারণে তিনি সরকারি নীতি এবং চুক্তি প্রদানের ক্ষেত্রে প্রভাব খাটাতে পারেন কিনা, সেই প্রশ্ন উঠেছে।

সরকার কি মাস্কের কোম্পানিগুলোকে বিশেষ সুবিধা দিচ্ছে? সিদ্ধান্তগুলি পক্ষপাতহীনভাবে এবং জনগণের স্বার্থে নেওয়া হচ্ছে কিনা, তা নিশ্চিত করার জন্য পর্যাপ্ত সুরক্ষা ব্যবস্থা আছে কি? এই প্রশ্নগুলোর কঠোরভাবে যাচাই করা উচিত।

ডেটা নিরাপত্তা ও গোপনীয়তা নিয়ে উদ্বেগ

সরকারি কাজকর্মের সাথে এআই ব্যবহার করার জন্য নাগরিকদের কাছ থেকে সংবেদনশীল ডেটা সংগ্রহ, সংরক্ষণ এবং প্রক্রিয়াকরণ করা হয়। এর ফলে সাইবার আক্রমণ এবং ডেটা লঙ্ঘনের ঝুঁকি বাড়ে। এই ডেটা অননুমোদিত অ্যাক্সেস (access) এবং অপব্যবহার থেকে রক্ষা করার জন্য সরকারকে অবশ্যই শক্তিশালী নিরাপত্তা ব্যবস্থা তৈরি করতে হবে। এর মধ্যে শুধু ডেটাকে বাহ্যিক হুমকি থেকে রক্ষা করাই নয়, অভ্যন্তরীণ অপব্যবহার রোধ করতে কঠোর অ্যাক্সেস কন্ট্রোল (access control) এবং জবাবদিহিতা ব্যবস্থা তৈরি করাও অন্তর্ভুক্ত।

এআই অ্যালগরিদমের অস্বচ্ছ প্রকৃতির কারণে ডেটা গোপনীয়তা নিয়ে উদ্বেগ আরও বেড়ে যায়। নাগরিকরা প্রায়শই জানে না যে তাদের ডেটা কীভাবে ব্যবহার করা হচ্ছে বা তাদের জীবনকে প্রভাবিত করে এমন সিদ্ধান্ত নেওয়ার জন্য সেটি কীভাবে প্রক্রিয়াকরণ করা হচ্ছে। এই স্বচ্ছতার অভাব সরকারের উপর থেকে আস্থা কমিয়ে দেয় এবং এআই-চালিত উদ্যোগের বিরুদ্ধে প্রতিরোধ তৈরি করতে পারে।

সরকারের ভবিষ্যতের জন্য এর প্রভাব

DOGE-এর এআই ব্যবহার নিয়ে বিতর্ক শুধুমাত্র একটি নির্দিষ্ট ঘটনার মধ্যে সীমাবদ্ধ নয়, বরং কৃত্রিম বুদ্ধিমত্তার যুগে সরকারের ভবিষ্যৎ নিয়েও প্রশ্ন তোলে। সরকার কীভাবে ঝুঁকি কমিয়ে সরকারি পরিষেবাগুলো উন্নত করতে এআই-এর ক্ষমতা ব্যবহার করতে পারে? কীভাবে আমরা নিশ্চিত করতে পারি যে এআই নৈতিকভাবে, স্বচ্ছভাবে এবং দায়বদ্ধতার সাথে ব্যবহার করা হচ্ছে?

এই প্রশ্নগুলোর উত্তর পেতে একটি বহুমাত্রিক পদ্ধতির প্রয়োজন:

  • স্পষ্ট নৈতিক নির্দেশিকা তৈরি করা: সরকারে এআই ব্যবহারের জন্য একটি স্পষ্ট নৈতিক নীতিমালা তৈরি করতে হবে। এই নীতিমালায় ন্যায্যতা, স্বচ্ছতা, জবাবদিহিতা এবং গোপনীয়তার প্রতি সম্মানকে অগ্রাধিকার দেওয়া উচিত।

  • স্বচ্ছতা ও উন্মুক্ততা প্রচার করা: এআই অ্যালগরিদম এবং সিদ্ধান্ত গ্রহণ প্রক্রিয়াকে আরও স্বচ্ছ করতে হবে। সরকারে এআই কীভাবে ব্যবহার করা হচ্ছে, সে সম্পর্কে প্রতিবেদন প্রকাশ করতে হবে এবং নাগরিকদের মতামত জানানোর সুযোগ দিতে হবে।

  • ডেটা নিরাপত্তা নিশ্চিত করা: সংবেদনশীল নাগরিক ডেটা সাইবার হুমকি এবং অভ্যন্তরীণ অপব্যবহার থেকে রক্ষা করার জন্য শক্তিশালী নিরাপত্তা ব্যবস্থা তৈরি করতে হবে।

  • জবাবদিহিতা নিশ্চিত করা: এআই-চালিত সিদ্ধান্তের জন্য স্পষ্ট জবাবদিহিতার ব্যবস্থা করতে হবে। এআই ব্যবহার তত্ত্বাবধান এবং উদ্ভূত যে কোনও সমস্যা সমাধানের জন্য সরকারি কর্মকর্তাদের দায়িত্ব দিতে হবে।

  • জনগণের আস্থা তৈরি করা: সরকারে এআই ব্যবহারের সুবিধা এবং ঝুঁকি সম্পর্কে জনগণকে জানাতে হবে। নাগরিকদের উদ্বেগের সমাধান করতে হবে এবং এই প্রযুক্তির দায়িত্বশীল ব্যবহারের প্রতি আস্থা তৈরি করতে হবে।

একটি সক্রিয় এবং চিন্তাশীল পদ্ধতি গ্রহণের মাধ্যমে সরকার জনগণের স্বার্থ রক্ষা করতে পারবে। সেই সাথে এআই-এর ক্ষমতা ব্যবহার করে সমাজের উন্নতি সাধন করতে পারবে। DOGE বিতর্ক আমাদের মনে করিয়ে দেয় যে কৃত্রিম বুদ্ধিমত্তার যুগেOpen dialogue, and the importance of careful planning in ethical principles.

উন্মোচিত হওয়া ঘটনা

DOGE-এর এআই ব্যবহার নিয়ে নাটক এখনও শেষ হয়নি। তদন্ত চলছে এবং আরও নতুন তথ্য সামনে আসছে। এই ঘটনার ফলে ভবিষ্যতে সরকারে এআই ব্যবহারের ক্ষেত্রে প্রভাব পড়বে। আশা করা যায়, এই পরিস্থিতির কারণে প্রযুক্তি আরও ভালোভাবে ব্যবহার করা হবে।