OpenAI-এর প্রাক্তন নীতি প্রধানের কোম্পানির 'পুনর্লিখিত' AI নিরাপত্তা বর্ণনার উপর লক্ষ্য

সোশ্যাল মিডিয়ায় প্রকাশ্য তিরস্কার

বুধবার, OpenAI-এর প্রাক্তন হাই-প্রোফাইল নীতি গবেষক, মাইলস ব্রান্ডেজ, প্রকাশ্যে কোম্পানির সমালোচনা করেছেন। তিনি OpenAI-এর বিরুদ্ধে সম্ভাব্য ঝুঁকিপূর্ণ AI সিস্টেম স্থাপনের পদ্ধতির ‘ইতিহাস পুনর্লিখনের’ অভিযোগ এনেছেন। ব্রান্ডেজ, যিনি পূর্বে OpenAI-এর নীতি কাঠামো গঠনে গুরুত্বপূর্ণ ভূমিকা পালন করেছিলেন, সোশ্যাল মিডিয়ার মাধ্যমে তার উদ্বেগ প্রকাশ করেছেন, যা কোম্পানির AI নিরাপত্তার বিষয়ে ক্রমপরিবর্তনশীল অবস্থান সম্পর্কে একটি বিতর্কের জন্ম দিয়েছে।

OpenAI-এর 'পুনরাবৃত্তিমূলক স্থাপনা' দর্শন

ব্রান্ডেজের সমালোচনাটি এই সপ্তাহের শুরুতে OpenAI দ্বারা প্রকাশিত একটি নথির পরিপ্রেক্ষিতে এসেছে। এই নথিতে AI নিরাপত্তা এবং অ্যালাইনমেন্ট সম্পর্কিত কোম্পানির বর্তমান দর্শনের বিস্তারিত বিবরণ দেওয়া হয়েছে। অ্যালাইনমেন্ট, এই প্রসঙ্গে, AI সিস্টেমগুলিকে এমনভাবে ডিজাইন করার প্রক্রিয়াকে বোঝায় যা অনুমানযোগ্য, আকাঙ্খিত এবং ব্যাখ্যাযোগ্য উপায়ে আচরণ করে।

নথিতে, OpenAI আর্টিফিশিয়াল জেনারেল ইন্টেলিজেন্স (AGI)-এর বিকাশকে একটি ‘অবিচ্ছিন্ন পথ’ হিসাবে চিহ্নিত করেছে। AGI-কে বিস্তৃতভাবে এমন AI সিস্টেম হিসাবে সংজ্ঞায়িত করা হয় যা একজন মানুষ যে কোনও বুদ্ধিবৃত্তিক কাজ করতে সক্ষম। OpenAI বলেছে যে এই অবিচ্ছিন্ন পথের জন্য AI প্রযুক্তিগুলি থেকে ‘পুনরাবৃত্তিমূলকভাবে স্থাপন এবং শেখার’ প্রয়োজন। এটি একটি ক্রমবর্ধমান, ধাপে ধাপে পদ্ধতির পরামর্শ দেয় যেখানে পূর্ববর্তী স্থাপনাগুলি থেকে প্রাপ্ত শিক্ষাগুলি পরবর্তীগুলিকে অবহিত করে।

GPT-2 বিতর্ক: বিতর্কের একটি বিষয়

ব্রান্ডেজ, যাইহোক, OpenAI-এর বর্ণনাকে চ্যালেঞ্জ করেছেন, বিশেষ করে GPT-2 প্রকাশের বিষয়ে। তিনি জোর দিয়ে বলেছেন যে GPT-2, প্রকাশের সময়, প্রকৃতপক্ষে উল্লেখযোগ্য সতর্কতার দাবি রাখে। এই দাবিটি সরাসরি এই ইঙ্গিতের বিরোধিতা করে যে বর্তমান পুনরাবৃত্তিমূলক স্থাপনার কৌশলটি অতীতের অনুশীলন থেকে একটি প্রস্থান উপস্থাপন করে।

ব্রান্ডেজ যুক্তি দেন যে GPT-2 এর প্রকাশে OpenAI-এর সতর্কতামূলক পদ্ধতি আসলে তার বর্তমান পুনরাবৃত্তিমূলক স্থাপনার কৌশলের সাথে সম্পূর্ণ সঙ্গতিপূর্ণ ছিল। তিনি মনে করেন যে কোম্পানির ইতিহাসের বর্তমান কাঠামো পূর্ববর্তী মডেলগুলির সাথে সম্পর্কিত ঝুঁকিগুলিকে হ্রাস করতে চায়।

প্রমাণের একটি স্থানান্তরিত বোঝা সম্পর্কে উদ্বেগ

ব্রান্ডেজের সমালোচনার একটি মূল উপাদান হল AI নিরাপত্তা সংক্রান্ত প্রমাণের বোঝা পরিবর্তনের বিষয়ে তিনি যা উপলব্ধি করেন। তিনি আশঙ্কা প্রকাশ করেছেন যে OpenAI-এর নথির লক্ষ্য হল এমন একটি কাঠামো প্রতিষ্ঠা করা যেখানে সম্ভাব্য ঝুঁকি সম্পর্কে উদ্বেগগুলিকে ‘ভীতিপ্রদর্শনকারী’ হিসাবে চিহ্নিত করা হবে।

ব্রান্ডেজের মতে, এই কাঠামো সেই ঝুঁকিগুলি প্রশমিত করার জন্য নেওয়া কোনও পদক্ষেপকে ন্যায্যতা দেওয়ার জন্য ‘আসন্ন বিপদের অপ্রতিরোধ্য প্রমাণ’ দাবি করবে। তিনি যুক্তি দেন যে উন্নত AI সিস্টেমগুলির সাথে কাজ করার সময় এই ধরনের মানসিকতা ‘অত্যন্ত বিপজ্জনক’, যেখানে অপ্রত্যাশিত পরিণতির উল্লেখযোগ্য প্রভাব থাকতে পারে।

'চকচকে পণ্য'-কে অগ্রাধিকার দেওয়ার অভিযোগ

OpenAI অতীতে নিরাপত্তা বিবেচনার চেয়ে ‘চকচকে পণ্য’-এর বিকাশ এবং প্রকাশকে অগ্রাধিকার দেওয়ার অভিযোগের মুখোমুখি হয়েছে। সমালোচকরা পরামর্শ দিয়েছেন যে কোম্পানিটি দ্রুত বিকশিত AI ল্যান্ডস্কেপে প্রতিযোগিতামূলক প্রান্ত অর্জনের জন্য মাঝে মাঝে পণ্যের প্রকাশে তাড়াহুড়ো করেছে।

AGI প্রস্তুতি দলের বিলুপ্তি এবং প্রস্থান

AGI প্রস্তুতি দলের গত বছরের বিলুপ্তি OpenAI-এর নিরাপত্তার প্রতিশ্রুতির বিষয়ে উদ্বেগ আরও বাড়িয়ে দিয়েছে। এই দলটি বিশেষভাবে AGI-এর সম্ভাব্য সামাজিক প্রভাবগুলি মূল্যায়ন এবং প্রস্তুতির জন্য কাজ করেছিল।

অতিরিক্তভাবে, বেশ কয়েকজন AI নিরাপত্তা এবং নীতি গবেষক OpenAI ছেড়েছেন, যাদের মধ্যে অনেকেই পরবর্তীকালে প্রতিদ্বন্দ্বী কোম্পানিগুলিতে যোগদান করেছেন। এই প্রস্থানগুলি OpenAI-এর অভ্যন্তরীণ সংস্কৃতি এবং অগ্রাধিকার সম্পর্কে প্রশ্ন তুলেছে।

ক্রমবর্ধমান প্রতিযোগিতামূলক চাপ

AI-এর ক্ষেত্রে প্রতিযোগিতামূলক ল্যান্ডস্কেপ সাম্প্রতিক সময়ে উল্লেখযোগ্যভাবে তীব্র হয়েছে। উদাহরণস্বরূপ, চীনা AI ল্যাব DeepSeek তার প্রকাশ্যে উপলব্ধ R1 মডেল দিয়ে বিশ্বব্যাপী মনোযোগ আকর্ষণ করেছে। এই মডেলটি বেশ কয়েকটি মূল বেঞ্চমার্কে OpenAI-এর o1 ‘যুক্তি’ মডেলের সাথে তুলনীয় কর্মক্ষমতা প্রদর্শন করেছে।

OpenAI-এর CEO, স্যাম অল্টম্যান, প্রকাশ্যে স্বীকার করেছেন যে DeepSeek-এর অগ্রগতি OpenAI-এর প্রযুক্তিগত নেতৃত্বকে হ্রাস করেছে। অল্টম্যান আরও ইঙ্গিত দিয়েছেন যে OpenAI তার প্রতিযোগিতামূলক অবস্থান উন্নত করতে নির্দিষ্ট পণ্যের প্রকাশকে ত্বরান্বিত করবে।

আর্থিক অংশীদারিত্ব

OpenAI-এর উপর আর্থিক চাপ যথেষ্ট। কোম্পানিটি বর্তমানে উল্লেখযোগ্য লোকসানে পরিচালিত হচ্ছে, বার্ষিক কয়েক বিলিয়ন ডলার ঘাটতি রয়েছে। অনুমানগুলি পরামর্শ দেয় যে এই ক্ষতিগুলি ২০২৬ সালের মধ্যে তিনগুণ বেড়ে ১৪ বিলিয়ন ডলারে পৌঁছাতে পারে।

একটি দ্রুত পণ্য প্রকাশের চক্র সম্ভাব্যভাবে স্বল্প মেয়াদে OpenAI-এর আর্থিক দৃষ্টিভঙ্গির উন্নতি করতে পারে। যাইহোক, ব্রান্ডেজের মতো বিশেষজ্ঞরা প্রশ্ন তোলেন যে এই ত্বরান্বিত গতি দীর্ঘমেয়াদী নিরাপত্তা বিবেচনার মূল্যে আসে কিনা। দ্রুত উদ্ভাবন এবং দায়িত্বশীল উন্নয়নের মধ্যে ভারসাম্য বিতর্কের একটি কেন্দ্রীয় বিষয়।

পুনরাবৃত্তিমূলক স্থাপনার বিতর্কের গভীরে প্রবেশ

‘পুনরাবৃত্তিমূলক স্থাপনা’-এর ধারণাটি AI নিরাপত্তা ঘিরে বর্তমান আলোচনার কেন্দ্রবিন্দু। সমর্থকরা যুক্তি দেন যে এটি বাস্তব-বিশ্বের পরীক্ষা এবং শেখার অনুমতি দেয়, ডেভেলপারদের উদ্ভূত হওয়ার সাথে সাথে সম্ভাব্য সমস্যাগুলি সনাক্ত করতে এবং সমাধান করতে সক্ষম করে। এই পদ্ধতিটি প্রাক-স্থাপনার ব্যাপক পরীক্ষা এবং বিশ্লেষণের আরও সতর্কতামূলক কৌশলের সাথে বিপরীত।

যাইহোক, পুনরাবৃত্তিমূলক স্থাপনার সমালোচকরা অপ্রত্যাশিত পরিণতির সম্ভাবনা সম্পর্কে উদ্বেগ প্রকাশ করেছেন। তারা যুক্তি দেন যে AI সিস্টেমগুলি সম্পূর্ণরূপে বোঝার আগে সেগুলিকে প্রকাশ করা অনিচ্ছাকৃত এবং সম্ভাব্য ক্ষতিকারক ফলাফলের দিকে পরিচালিত করতে পারে। চ্যালেঞ্জটি হল বাস্তব-বিশ্বের শিক্ষার সুবিধা এবং সম্ভাব্য অননুমানযোগ্য প্রযুক্তি স্থাপনের সাথে সম্পর্কিত ঝুঁকিগুলির মধ্যে ভারসাম্য বজায় রাখা।

স্বচ্ছতা এবং উন্মুক্ততার ভূমিকা

বিতর্কের আরেকটি গুরুত্বপূর্ণ দিক হল স্বচ্ছতা এবং উন্মুক্ততা। কেউ কেউ যুক্তি দেন যে AI উন্নয়ন এবং স্থাপনার বিষয়ে বৃহত্তর স্বচ্ছতা জনসাধারণের আস্থা তৈরি এবং জবাবদিহিতা নিশ্চিত করার জন্য অপরিহার্য। এর মধ্যে AI সিস্টেমের সম্ভাব্য ঝুঁকি এবং সীমাবদ্ধতা সম্পর্কে তথ্য ভাগ করে নেওয়া অন্তর্ভুক্ত।

অন্যরা, যাইহোক, যুক্তি দেন যে অত্যধিক উন্মুক্ততা ক্ষতিকারক অভিনেতাদের দ্বারা শোষিত হতে পারে, যা সম্ভাব্যভাবে AI প্রযুক্তির অপব্যবহারের দিকে পরিচালিত করে। স্বচ্ছতা এবং নিরাপত্তার মধ্যে সঠিক ভারসাম্য খুঁজে বের করা একটি জটিল চ্যালেঞ্জ।

দৃঢ় শাসন কাঠামোর প্রয়োজনীয়তা

যেহেতু AI সিস্টেমগুলি সমাজের বিভিন্ন দিকের সাথে ক্রমবর্ধমানভাবে সংহত হচ্ছে, দৃঢ় শাসন কাঠামোর প্রয়োজনীয়তা আরও গুরুত্বপূর্ণ হয়ে উঠছে। এই কাঠামো গুলির মধ্যে নিরাপত্তা, জবাবদিহিতা, স্বচ্ছতা এবং নৈতিক বিবেচনার মতো বিষয়গুলি সমাধান করা উচিত।

কার্যকর শাসন ব্যবস্থা বিকাশের জন্য গবেষক, নীতিনির্ধারক, শিল্প অংশীদার এবং জনসাধারণের মধ্যে সহযোগিতা প্রয়োজন। লক্ষ্য হল এমন একটি কাঠামো তৈরি করা যা উদ্ভাবনকে উৎসাহিত করে এবং সম্ভাব্য ঝুঁকিগুলি হ্রাস করে এবং AI সামগ্রিকভাবে সমাজের উপকার করে তা নিশ্চিত করে।

AI-এর ভবিষ্যতের জন্য বিস্তৃত প্রভাব

AI নিরাপত্তার প্রতি OpenAI-এর দৃষ্টিভঙ্গি ঘিরে বিতর্ক AI উন্নয়নের ভবিষ্যৎ সম্পর্কে বিস্তৃত উদ্বেগগুলিকে প্রতিফলিত করে। যেহেতু AI সিস্টেমগুলি অভূতপূর্ব গতিতে অগ্রসর হচ্ছে, সমাজের উপর তাদের সম্ভাব্য প্রভাব সম্পর্কে প্রশ্নগুলি ক্রমবর্ধমানভাবে জরুরি হয়ে উঠছে।

চ্যালেঞ্জটি হল AI-এর রূপান্তরমূলক সম্ভাবনাকে কাজে লাগানো এবং এর বিকাশ ও স্থাপনার সাথে সম্পর্কিত ঝুঁকিগুলি হ্রাস করা। এর জন্য একটি বহুমুখী পদ্ধতির প্রয়োজন যা প্রযুক্তিগত গবেষণা, নীতি উন্নয়ন, নৈতিক বিবেচনা এবং জনসাধারণের অংশগ্রহণকে অন্তর্ভুক্ত করে। AI-এর ভবিষ্যৎ নির্ভর করবে আমরা আজকে যে পছন্দগুলি করি তার উপর।

চলমান আলোচনা AI-এর ক্ষেত্রে সমালোচনামূলক যাচাই-বাছাই এবং উন্মুক্ত আলোচনার গুরুত্বের একটি অনুস্মারক হিসাবে কাজ করে। যেহেতু AI প্রযুক্তিগুলি বিকশিত হচ্ছে, তাদের সম্ভাব্য প্রভাব সম্পর্কে চলমান কথোপকথন করা এবং তাদের বিকাশ মানবিক মূল্যবোধ এবং সামাজিক কল্যাণের সাথে সঙ্গতিপূর্ণ তা নিশ্চিত করা অত্যন্ত গুরুত্বপূর্ণ।