কৃত্রিম বুদ্ধিমত্তার (Artificial Intelligence) জগৎ বর্তমানে চরম বৈপরীত্যের এক মঞ্চ। একদিকে, বিশাল প্রযুক্তি কোম্পানিগুলিতে বিপুল পরিমাণ অর্থ বিনিয়োগ করা হচ্ছে, যা অভূতপূর্ব জ্ঞানীয় ক্ষমতার আকাঙ্ক্ষা জাগিয়ে তুলছে এবং একটি আসন্ন বিনিয়োগ বুদবুদ নিয়ে বিতর্ক সৃষ্টি করছে। বহু বিলিয়ন ডলারের মূল্যায়ন সাধারণ হয়ে উঠছে, এবং অর্থায়নের পরিমাণ জ্যোতির্বিদ্যা সংক্রান্ত অঙ্কে পৌঁছানোর গুজব শোনা যাচ্ছে। তবুও, একটি শান্ত, সমান্তরাল মঞ্চে, একাডেমিক সার্কেল এবং ওপেন-সোর্স কমিউনিটির মধ্যে একটি বিপ্লব তৈরি হচ্ছে। এখানে, গবেষকরা অসাধারণ উদ্ভাবনী ক্ষমতা প্রদর্শন করছেন, বিলিয়ন ডলার দিয়ে নয়, বরং কখনও কখনও সামান্য পকেটমানি দিয়ে সক্ষম জেনারেটিভ AI মডেল তৈরি করছেন, যা কৃত্রিম বুদ্ধিমত্তার শ্রেষ্ঠত্বের দৌড়ে ‘বৃহত্তর মানেই সর্বদা ভালো’ এই প্রচলিত ধারণাকে মৌলিকভাবে চ্যালেঞ্জ করছে।
এই বিভেদ ক্রমশ স্পষ্ট হয়ে উঠছে। ChatGPT-এর পেছনের শক্তি OpenAI-এর কথা ভাবুন, যা আরও বিনিয়োগ খুঁজছে বলে জানা গেছে, যা এর মূল্যায়নকে চোখ ধাঁধানো $300 বিলিয়ন ডলারে উন্নীত করতে পারে। এই ধরনের পরিসংখ্যান, দ্রুত ক্রমবর্ধমান রাজস্বের পূর্বাভাসের পাশাপাশি, লাগামহীন আশাবাদ এবং সূচকীয় বৃদ্ধির চিত্র তুলে ধরে। একই সাথে, এই AI উচ্ছ্বাসের ভিত্তিকে কাঁপিয়ে দিচ্ছে সতর্কতার কম্পন। তথাকথিত ‘Magnificent 7’ প্রযুক্তি স্টকগুলি, যা দীর্ঘকাল ধরে মূলত তাদের AI সম্ভাবনার কারণে বাজারের প্রিয় ছিল, তারা উল্লেখযোগ্যভাবে খারাপ পারফরম্যান্সের সময়কাল অনুভব করেছে, যা ইঙ্গিত দেয় যে বিনিয়োগকারীদের উদ্বেগ বাড়ছে। এই অস্বস্তি আরও তীব্র হয়েছে অভিজ্ঞ শিল্প ব্যক্তিত্বদের সতর্কবার্তার দ্বারা, যেমন Alibaba-র সহ-প্রতিষ্ঠাতা Joe Tsai, যিনি সম্প্রতি মার্কিন বাজারে একটি সম্ভাব্য AI বুদবুদ গঠনের উদ্বেগজনক লক্ষণগুলির দিকে ইঙ্গিত করেছেন। বিনিয়োগের বিশাল পরিমাণ, বিশেষ করে এই জটিল মডেলগুলিকে শক্তি জোগানো বিশাল ডেটা সেন্টারগুলির জন্য, তীব্র যাচাই-বাছাইয়ের অধীনে আসছে। বর্তমান ব্যয়ের স্তর কি টেকসই, নাকি এগুলি নিকট ভবিষ্যতের বাস্তবতা থেকে বিচ্ছিন্ন অযৌক্তিক উচ্ছ্বাসের সূচক?
AI বুদবুদের আশঙ্কা বাড়ছে
AI বুদবুদ নিয়ে উদ্বেগ কেবল বিমূর্ত আর্থিক উদ্বেগ নয়; এগুলি AI বিকাশের গতি এবং দিকনির্দেশনা সম্পর্কে গভীর প্রশ্নগুলিকে প্রতিফলিত করে। এই আখ্যানটি মূলত কয়েকটি প্রধান খেলোয়াড় দ্বারা প্রভাবিত হয়েছে যারা আরও বড় Large Language Models (LLMs) তৈরি করতে বিলিয়ন বিলিয়ন ডলার বিনিয়োগ করছে। এটি এমন একটি পরিবেশ তৈরি করেছে যেখানে বাজারের নেতৃত্ব গভীরতম পকেট এবং সবচেয়ে বিস্তৃত কম্পিউটিং পরিকাঠামোর উপর নির্ভরশীল বলে মনে হচ্ছে।
- মূল্যায়নের মাথা ঘোরা: OpenAI-এর সম্ভাব্য $300 বিলিয়ন মূল্যায়ন, যদিও নির্দিষ্ট বিনিয়োগকারীদের কাছ থেকে প্রচুর আত্মবিশ্বাস প্রতিফলিত করে, তবুও এটি প্রশ্ন উত্থাপন করে। এই অঙ্কটি কি বর্তমান ক্ষমতা এবং রাজস্ব প্রবাহ দ্বারা ন্যায্য, নাকি এটি ভবিষ্যতের, সম্ভবত অনিশ্চিত, যুগান্তকারী সাফল্যের দিকে বেশি ঝুঁকে আছে? পূর্ববর্তী প্রযুক্তি বুম এবং বাস্ট, যেমন ডট-কম যুগের ঐতিহাসিক সমান্তরালগুলি অনিবার্যভাবে উঠে আসে, যা সতর্কতার প্ররোচনা দেয়।
- পরিকাঠামো বিনিয়োগ যাচাই: AI-নির্দিষ্ট ডেটা সেন্টার এবং বিশেষায়িত হার্ডওয়্যার, যেমন হাই-এন্ড GPUs-তে ঢালা বিলিয়ন বিলিয়ন ডলার বিশাল মূলধনী ব্যয়ের প্রতিনিধিত্ব করে। Joe Tsai-এর সতর্কতা এই ধরনের বিশাল অগ্রিম বিনিয়োগের সাথে যুক্ত ঝুঁকির উপর আলোকপাত করে, বিশেষ করে যদি নগদীকরণের পথ প্রত্যাশার চেয়ে দীর্ঘ বা আরও জটিল প্রমাণিত হয়। এই বিনিয়োগগুলির কার্যকারিতা এবং রিটার্ন গুরুত্বপূর্ণ আলোচনার বিষয় হয়ে উঠছে।
- বাজারের সংকেত: AI-তে ব্যাপকভাবে বিনিয়োগ করা প্রযুক্তি জায়ান্টদের ওঠানামা করা পারফরম্যান্স বাজারের কিছুটা সংশয়বাদ নির্দেশ করে। যদিও দীর্ঘমেয়াদী সম্ভাবনা একটি শক্তিশালী আকর্ষণ হিসাবে রয়ে গেছে, স্বল্পমেয়াদী অস্থিরতা ইঙ্গিত দেয় যে বিনিয়োগকারীরা সক্রিয়ভাবে ঝুঁকি পুনর্মূল্যায়ন করছে এবং বর্তমান বৃদ্ধির গতিপথের স্থায়িত্ব নিয়ে প্রশ্ন তুলছে। AI স্পেসে আসন্ন IPO-গুলির ভাগ্য, যেমন AI চিপ বিশেষজ্ঞ CoreWeave-এর প্রত্যাশিত অফার, বাজারের অনুভূতির ব্যারোমিটার হিসাবে ঘনিষ্ঠভাবে পর্যবেক্ষণ করা হচ্ছে। এটি কি উত্সাহ পুনরুজ্জীবিত করবে নাকি অন্তর্নিহিত অস্থিরতা নিশ্চিত করবে?
- ভূ-রাজনৈতিক মাত্রা: AI দৌড়ের উল্লেখযোগ্য ভূ-রাজনৈতিক দিকও রয়েছে, বিশেষ করে US এবং China-র মধ্যে। US-এ বিপুল ব্যয় আংশিকভাবে প্রতিযোগিতামূলক প্রান্ত বজায় রাখার আকাঙ্ক্ষা দ্বারা চালিত হয়। এটি জটিল নীতি বিতর্কের দিকে পরিচালিত করেছে, যার মধ্যে রয়েছে উন্নত সেমিকন্ডাক্টর প্রযুক্তির উপর কঠোর রপ্তানি নিয়ন্ত্রণের আহ্বান, যা সম্ভাব্যভাবে China-র অগ্রগতি মন্থর করতে পারে। বিপরীতভাবে, ভেঞ্চার ক্যাপিটাল চীনা AI স্টার্টআপগুলিতে প্রবাহিত হতে থাকে, যা একটি বিশ্বব্যাপী প্রতিযোগিতার ইঙ্গিত দেয় যেখানে প্রযুক্তিগত দক্ষতা এবং অর্থনৈতিক কৌশল শক্তভাবে জড়িত।
এই উচ্চ-ঝুঁকি, উচ্চ-ব্যয়ের পরিবেশ প্রতিষ্ঠিত শৃঙ্খলাকে চ্যালেঞ্জ করে এমন বিঘ্নকারী উদ্ভাবনের মঞ্চ তৈরি করে। উল্লেখযোগ্যভাবে সস্তা বিকল্পগুলির উত্থান একটি পুনর্মূল্যায়নে বাধ্য করে যে নৃশংস গণনা শক্তি এবং বিশাল স্কেলই কি এগিয়ে যাওয়ার একমাত্র পথ।
DeepSeek-এর বিঘ্নকারী দাবি এবং এর প্রভাব
বিশাল ব্যয় এবং ক্রমবর্ধমান উদ্বেগের এই প্রেক্ষাপটে প্রবেশ করেছে DeepSeek, একটি China-ভিত্তিক সত্তা যা একটি চমকপ্রদ দাবি করেছে: এটি তার R1 জেনারেটিভ AI লার্জ ল্যাঙ্গুয়েজ মডেলটি তৈরি করেছে মাত্র $6 মিলিয়ন ডলারে। এই অঙ্কটি, পশ্চিমা প্রতিপক্ষদের অনুমিত বহু-বিলিয়ন ডলার বিনিয়োগের চেয়ে বহুগুণ কম, যা অবিলম্বে শিল্পে আলোড়ন সৃষ্টি করেছে।
যদিও $6 মিলিয়ন গণনার বিষয়ে সংশয় রয়ে গেছে – কোন খরচগুলি অন্তর্ভুক্ত করা হয়েছিল এবং কোনটি বাদ দেওয়া হয়েছিল তা নিয়ে প্রশ্ন উঠেছে – ঘোষণার প্রভাব অনস্বীকার্য ছিল। এটি একটি শক্তিশালী অনুঘটক হিসাবে কাজ করেছে, বাজারের নেতাদের দ্বারা নিযুক্ত ব্যয় কাঠামো এবং উন্নয়ন পদ্ধতিগুলির একটি সমালোচনামূলক পরীক্ষা করতে বাধ্য করেছে। যদি একটি যুক্তিসঙ্গতভাবে সক্ষম মডেল সত্যিই বিলিয়নের পরিবর্তে মিলিয়নে তৈরি করা যায়, তবে বর্তমান পদ্ধতির কার্যকারিতা সম্পর্কে এটি কী বোঝায়?
- আখ্যানকে চ্যালেঞ্জ করা: DeepSeek-এর দাবি, সঠিক হোক বা না হোক, প্রচলিত আখ্যানকে ভেঙে দিয়েছে যে অত্যাধুনিক AI উন্নয়ন শুধুমাত্র সীমাহীন সম্পদ সহ ট্রিলিয়ন-ডলার কোম্পানিগুলির একচেটিয়া ক্ষেত্র। এটি আরও গণতান্ত্রিক উন্নয়ন ল্যান্ডস্কেপের সম্ভাবনা চালু করেছে।
- যাচাই-বাছাইকে উস্কে দেওয়া: এটি Microsoft-সমর্থিত OpenAI-এর মতো কোম্পানিগুলির বিশাল ব্যয়ের উপর ইতিমধ্যে পড়া যাচাই-বাছাইকে আরও তীব্র করেছে। বিনিয়োগকারী, বিশ্লেষক এবং প্রতিযোগীরা এই মূলধন-নিবিড় প্রকল্পগুলির জন্য সম্পদ বরাদ্দ এবং বিনিয়োগের উপর রিটার্ন সম্পর্কে আরও কঠিন প্রশ্ন জিজ্ঞাসা করতে শুরু করেছে।
- ভূ-রাজনৈতিক অনুরণন: দাবিটি US-China প্রযুক্তি প্রতিদ্বন্দ্বিতার প্রেক্ষাপটেও অনুরণিত হয়েছে। এটি ইঙ্গিত দিয়েছে যে AI যোগ্যতার জন্য বিকল্প, সম্ভাব্য আরও সম্পদ-দক্ষ পথ বিদ্যমান থাকতে পারে, যা প্রযুক্তিগত নেতৃত্ব এবং কৌশলগত প্রতিযোগিতা সম্পর্কে আলোচনায় জটিলতার আরেকটি স্তর যুক্ত করেছে। এটি চিপ নিষেধাজ্ঞার মতো নীতিগুলির উপর আরও বিতর্ককে উত্সাহিত করেছে, একই সাথে ভেঞ্চার ক্যাপিটালিস্টদের China-র উদীয়মান খেলোয়াড়দের দিকে ঘনিষ্ঠভাবে নজর দিতে উত্সাহিত করেছে যাদের হয়তো আরও কার্যকর উন্নয়ন মডেল থাকতে পারে।
সংশয়বাদ সত্ত্বেও, DeepSeek R1-এর প্রকাশ, বিশেষ করে এর সাথে থাকা উন্মুক্ত গবেষণা উপাদানগুলি, গুরুত্বপূর্ণ অন্তর্দৃষ্টি প্রদান করেছে যা অন্যদের অনুপ্রাণিত করবে। এটি কেবল দাবিকৃত খরচই ছিল না, বরং ইঙ্গিত দেওয়া সম্ভাব্য পদ্ধতিগুলিও ছিল, যা অন্যত্র কৌতূহল এবং উদ্ভাবনকে উস্কে দিয়েছিল, বিশেষ করে বিভিন্ন আর্থিক সীমাবদ্ধতার অধীনে পরিচালিত একাডেমিক ল্যাবগুলিতে।
অতি-স্বল্প খরচের AI-এর উত্থান: একটি বিশ্ববিদ্যালয় বিপ্লব
যখন কর্পোরেট জায়ান্টরা বিলিয়ন-ডলার বাজেট এবং বাজারের চাপের সাথে লড়াই করছিল, তখন একাডেমিয়ার হলগুলিতে একটি ভিন্ন ধরণের AI বিপ্লব নীরবে রূপ নিচ্ছিল। গবেষকরা, তাৎক্ষণিক বাণিজ্যিকীকরণের চাহিদা থেকে মুক্ত কিন্তু তহবিলের দ্বারা মারাত্মকভাবে সীমাবদ্ধ, উন্নত AI-এর পিছনের নীতিগুলি প্রতিলিপি করার উপায়গুলি অন্বেষণ করতে শুরু করেছিলেন, যদি স্কেল নাও হয়, ন্যূনতম সংস্থান ব্যবহার করে। একটি প্রধান উদাহরণ ইউনিভার্সিটি অফ ক্যালিফোর্নিয়া, Berkeley থেকে উদ্ভূত হয়েছে।
Berkeley-র একটি দল, সাম্প্রতিক অগ্রগতিতে আগ্রহী কিন্তু শিল্প ল্যাবগুলির বিশাল পুঁজির অভাব, TinyZero নামে একটি প্রকল্পে কাজ শুরু করে। তাদের লক্ষ্য ছিল দুঃসাহসিক: তারা কি অত্যাধুনিক AI আচরণ প্রদর্শন করতে পারে, বিশেষ করে সেই ধরণের যুক্তি যা মডেলগুলিকে উত্তর দেওয়ার আগে ‘চিন্তা’ করতে দেয়, একটি নাটকীয়ভাবে ছোট আকারের মডেল এবং বাজেট ব্যবহার করে? উত্তরটি একটি জোরালো হ্যাঁ প্রমাণিত হয়েছিল। তারা OpenAI এবং DeepSeek উভয়ের দ্বারা অন্বেষণ করা যুক্তির মূল দিকগুলি একটি আশ্চর্যজনকভাবে কম খরচে সফলভাবে পুনরুৎপাদন করেছে – প্রায় $30।
এটি GPT-4-এর সরাসরি প্রতিযোগী তৈরি করে অর্জন করা হয়নি, বরং মডেল এবং টাস্ক উভয়ের জটিলতা চতুরভাবে হ্রাস করে অর্জন করা হয়েছিল।
- $30 পরীক্ষা: এই অঙ্কটি প্রাথমিকভাবে প্রয়োজনীয় প্রশিক্ষণের সময়ের জন্য একটি পাবলিক ক্লাউড প্ল্যাটফর্মে দুটি Nvidia H200 GPUs ভাড়া করার খরচকে প্রতিনিধিত্ব করে। এটি বিশাল অগ্রিম হার্ডওয়্যার বিনিয়োগ ছাড়াই অত্যাধুনিক গবেষণার জন্য বিদ্যমান ক্লাউড পরিকাঠামো ব্যবহারের সম্ভাবনা প্রদর্শন করেছে।
- মডেল স্কেলিং: TinyZero প্রকল্পটি একটি ‘3B’ মডেল ব্যবহার করেছে, যা প্রায় তিন বিলিয়ন প্যারামিটারকে নির্দেশ করে। এটি বৃহত্তম LLM-গুলির তুলনায় উল্লেখযোগ্যভাবে ছোট, যা শত শত বিলিয়ন বা এমনকি ট্রিলিয়ন প্যারামিটার ধারণ করতে পারে। মূল অন্তর্দৃষ্টি ছিল যে জটিল আচরণগুলি ছোট মডেলগুলিতেও আবির্ভূত হতে পারে যদি টাস্কটি যথাযথভাবে ডিজাইন করা হয়।
- জায়ান্ট এবং চ্যালেঞ্জারদের থেকে অনুপ্রেরণা: TinyZero প্রকল্পের নেতা Jiayi Pan উল্লেখ করেছেন যে OpenAI-এর যুগান্তকারী সাফল্য, বিশেষ করে প্রতিক্রিয়া জানানোর আগে মডেলগুলির বেশি সময় ব্যয় করার ধারণাগুলি, একটি প্রধান অনুপ্রেরণা ছিল। যাইহোক, এটি ছিল DeepSeek R1-এর উন্মুক্ত গবেষণা যা এই উন্নত যুক্তি ক্ষমতা অর্জনের কিভাবে একটি সম্ভাব্য ব্লুপ্রিন্ট প্রদান করেছিল, যদিও DeepSeek-এর রিপোর্ট করা $6 মিলিয়ন প্রশিক্ষণ খরচ এখনও বিশ্ববিদ্যালয় দলের নাগালের অনেক বাইরে ছিল।
Berkeley দল অনুমান করেছিল যে মডেলের আকার এবং এটি যে সমস্যাটি সমাধান করতে হবে তার জটিলতা উভয়ই হ্রাস করে, তারা এখনও কাঙ্ক্ষিত ‘আবির্ভূত যুক্তি আচরণ’ পর্যবেক্ষণ করতে পারে। এই হ্রাসবাদী পদ্ধতিটি নাটকীয়ভাবে খরচ কমানোর মূল চাবিকাঠি ছিল এবং একই সাথে মূল্যবান বৈজ্ঞানিক পর্যবেক্ষণ সক্ষম করেছিল।
‘আহা মোমেন্ট’ ডিকোডিং: বাজেটে যুক্তি
TinyZero প্রকল্প এবং অনুরূপ স্বল্প-খরচের উদ্যোগগুলির মূল অর্জনটি হল গবেষকরা যাকে প্রায়শই ‘আহা মোমেন্ট’ বলে অভিহিত করেন তা প্রদর্শন করা – সেই বিন্দু যেখানে একটি AI মডেল নিছক প্যাটার্ন ম্যাচিং বা সঞ্চিত তথ্য পুনরুদ্ধারের পরিবর্তে প্রকৃত যুক্তি এবং সমস্যা সমাধানের ক্ষমতা প্রদর্শন করতে শুরু করে। এই আবির্ভূত আচরণ এমনকি বৃহত্তম মডেলগুলির বিকাশকারীদের জন্যও একটি মূল লক্ষ্য।
তাদের অনুমান পরীক্ষা করতে এবং একটি ছোট স্কেলে এই আচরণটি বের করতে, Berkeley দল একটি নির্দিষ্ট, সীমাবদ্ধ টাস্ক ব্যবহার করেছিল: ‘Countdown’ নামে একটি গণিত খেলা।
- Countdown গেম: এই গেমটির জন্য AI-কে প্রদত্ত সংখ্যার সেট এবং মৌলিক গাণিতিক ক্রিয়াকলাপ (যোগ, বিয়োগ, গুণ, ভাগ) ব্যবহার করে একটি লক্ষ্য সংখ্যায় পৌঁছাতে হয়। গুরুত্বপূর্ণভাবে, Countdown-এ সাফল্য বিশাল পরিমাণে পূর্ব-বিদ্যমান গাণিতিক জ্ঞান স্মরণ করার চেয়ে কৌশলগত যুক্তি এবং পরিকল্পনার উপর বেশি নির্ভর করে – বিভিন্ন সংমিশ্রণ এবং ক্রিয়াকলাপের ক্রম অন্বেষণ করা।
- খেলার মাধ্যমে শেখা: প্রাথমিকভাবে, TinyZero মডেলটি এলোমেলোভাবে গেমটির কাছে গিয়েছিল, প্রায় এলোমেলোভাবে সংমিশ্রণ চেষ্টা করেছিল। যাইহোক, রিইনফোর্সমেন্ট লার্নিং (ট্রায়াল এবং এরর এবং পুরষ্কার থেকে শেখা) প্রক্রিয়ার মাধ্যমে, এটি প্যাটার্ন এবং কৌশলগুলি বুঝতে শুরু করে। এটি তার পদ্ধতি সামঞ্জস্য করতে, অদক্ষ পথগুলি বাতিল করতে এবং সঠিক সমাধানগুলিতে আরও দ্রুত একত্রিত হতে শিখেছে। এটি মূলত গেমের সংজ্ঞায়িত নিয়মগুলির মধ্যে কিভাবে যুক্তি করতে হয় তা শিখেছে।
- স্ব-যাচাইকরণ আবির্ভূত হয়: উল্লেখযোগ্যভাবে, প্রশিক্ষিত মডেলটি স্ব-যাচাইকরণের লক্ষণ দেখাতে শুরু করে – তার নিজস্ব মধ্যবর্তী পদক্ষেপ এবং সম্ভাব্য সমাধানগুলি মূল্যায়ন করে তা নির্ধারণ করতে যে সেগুলি লক্ষ্য সংখ্যার দিকে নিয়ে যাচ্ছে কিনা। অভ্যন্তরীণভাবে মূল্যায়ন এবং কোর্স সংশোধন করার এই ক্ষমতা আরও উন্নত যুক্তির একটি বৈশিষ্ট্য।
যেমন Jiayi Pan ব্যাখ্যা করেছেন, ‘আমরা দেখাই যে 3B-এর মতো ছোট একটি মডেলের সাথে, এটি সাধারণ সমস্যাগুলি সম্পর্কে যুক্তি শিখতে পারে এবং স্ব-যাচাই করতে এবং আরও ভাল সমাধান অনুসন্ধান করতে শিখতে শুরু করতে পারে।’ এটি প্রমাণ করেছে যে যুক্তি এবং ‘আহা মোমেন্ট’-এর অন্তর্নিহিত মৌলিক প্রক্রিয়াগুলি, যা পূর্বে প্রধানত বিশাল, ব্যয়বহুল মডেলগুলির সাথে যুক্ত ছিল, একটি অত্যন্ত সম্পদ-সীমাবদ্ধ পরিবেশে প্রতিলিপি এবং অধ্যয়ন করা যেতে পারে। TinyZero-এর সাফল্য প্রমাণ করেছে যে অগ্রণী AI ধারণাগুলি কেবল প্রযুক্তি জায়ান্টদের একচেটিয়া ক্ষেত্র ছিল না বরং সীমিত বাজেট সহ গবেষক, প্রকৌশলী এবং এমনকি শখের মানুষদের কাছেও অ্যাক্সেসযোগ্য করে তোলা যেতে পারে, যা AI অন্বেষণের জন্য আরও অন্তর্ভুক্তিমূলক ইকোসিস্টেম তৈরি করে। দলের তাদের ফলাফলগুলি খোলাখুলিভাবে ভাগ করে নেওয়ার সিদ্ধান্ত, বিশেষ করে GitHub-এর মতো প্ল্যাটফর্মের মাধ্যমে, অন্যদের পরীক্ষাগুলি প্রতিলিপি করতে এবং কয়েকটি পিজ্জার দামের চেয়েও কম খরচে এই ‘আহা মোমেন্ট’টি সরাসরি অনুভব করার অনুমতি দিয়েছে।
Stanford লড়াইয়ে যোগ দেয়: স্বল্প-খরচে শেখার বৈধতা
TinyZero দ্বারা সৃষ্ট তরঙ্গগুলি দ্রুত একাডেমিক AI সম্প্রদায়ের মধ্যে ছড়িয়ে পড়ে। Stanford University-র গবেষকরা, যারা ইতিমধ্যে অনুরূপ ধারণাগুলি অন্বেষণ করছিলেন এবং এমনকি পূর্বে Countdown গেমটিকে একটি গবেষণা টাস্ক হিসাবে চালু করেছিলেন, তারা Berkeley দলের কাজটিকে অত্যন্ত প্রাসঙ্গিক এবং বৈধ বলে মনে করেছিলেন।
Kanishk Gandhi-র নেতৃত্বে, Stanford দল একটি সম্পর্কিত, মৌলিক প্রশ্ন নিয়ে গবেষণা করছিল: কেন কিছু LLM প্রশিক্ষণের সময় তাদের যুক্তি ক্ষমতায় নাটকীয়, প্রায় আকস্মিক উন্নতি প্রদর্শন করে, যখন অন্যদের মনে হয় মালভূমিতে পৌঁছে গেছে? এই সক্ষমতার উল্লম্ফন চালনাকারী অন্তর্নিহিত প্রক্রিয়াগুলি বোঝা আরও কার্যকর এবং নির্ভরযোগ্য AI তৈরির জন্য অত্যন্ত গুরুত্বপূর্ণ।
- শেয়ার্ড গ্রাউন্ডের উপর ভিত্তি করে: Gandhi TinyZero-এর মূল্যের কথা স্বীকার করে বলেছেন যে এটি ‘দুর্দান্ত’ ছিল কারণ এটি সফলভাবে Countdown টাস্কটি ব্যবহার করেছিল যা তার নিজের দল অধ্যয়ন করছিল। এই অভিসার বিভিন্ন গবেষণা গোষ্ঠীর মধ্যে ধারণাগুলির দ্রুত বৈধতা এবং পুনরাবৃত্তির অনুমতি দিয়েছে।
- ইঞ্জিনিয়ারিং বাধা অতিক্রম করা: Stanford গবেষকরা আরও তুলে ধরেছেন যে কীভাবে তাদের অগ্রগতি পূর্বে ইঞ্জিনিয়ারিং চ্যালেঞ্জ দ্বারা বাধাগ্রস্ত হয়েছিল। ওপেন-সোর্স সরঞ্জামগুলির প্রাপ্যতা এই বাধাগুলি অতিক্রম করতে সহায়ক হয়েছিল।
- ওপেন সোর্স সরঞ্জামগুলির শক্তি: বিশেষভাবে, Gandhi ByteDance (TikTok-এর মূল সংস্থা) দ্বারা বিকশিত একটি ওপেন-সোর্স প্রকল্প Volcano Engine Reinforcement Learning সিস্টেম (VERL)-কে ‘আমাদের পরীক্ষাগুলি চালানোর জন্য অপরিহার্য’ হিসাবে কৃতিত্ব দিয়েছেন। VERL-এর ক্ষমতা এবং Stanford দলের পরীক্ষামূলক চাহিদার মধ্যে সামঞ্জস্য তাদের গবেষণা চক্রকে উল্লেখযোগ্যভাবে ত্বরান্বিত করেছে।
ওপেন-সোর্স উপাদানগুলির উপর এই নির্ভরতা স্বল্প-খরচের AI আন্দোলনের একটি গুরুত্বপূর্ণ দিককে তুলে ধরে। অগ্রগতি প্রায়শই সহযোগিতামূলকভাবে তৈরি হয়, সম্প্রদায়ের মধ্যে অবাধে ভাগ করা সরঞ্জাম এবং অন্তর্দৃষ্টিগুলিকে কাজে লাগিয়ে। Gandhi আরও মত দেন যে LLM যুক্তি এবং বুদ্ধিমত্তা বোঝার ক্ষেত্রে প্রধান বৈজ্ঞানিক অগ্রগতিগুলি অগত্যা শুধুমাত্র বড়, ভাল অর্থায়িত শিল্প ল্যাবগুলি থেকে উদ্ভূত নাও হতে পারে। তিনি যুক্তি দিয়েছিলেন যে ‘বর্তমান LLM-গুলির একটি বৈজ্ঞানিক বোঝাপড়া অনুপস্থিত, এমনকি বড় ল্যাবগুলির মধ্যেও,’ যা ‘DIY AI, ওপেন সোর্স এবং একাডেমিয়া’ থেকে অবদানের জন্য উল্লেখযোগ্য জায়গা ছেড়ে দেয়। এই ছোট, আরও চটপটে প্রকল্পগুলি নির্দিষ্ট ঘটনাগুলি গভীরভাবে অন্বেষণ করতে পারে, যা সমগ্র ক্ষেত্রকে উপকৃত করে এমন অন্তর্দৃষ্টি তৈরি করে।
অখ্যাত নায়ক: ওপেন সোর্স ফাউন্ডেশন
TinyZero-এর মতো প্রকল্পগুলির অসাধারণ অর্জন, যা দশ ডলারের বিনিময়ে অত্যাধুনিক AI আচরণ প্রদর্শন করে, একটি গুরুত্বপূর্ণ, প্রায়শই কম মূল্যায়িত উপাদানের উপর ব্যাপকভাবে নির্ভর করে: ওপেন-সোর্স এবং ওপেন-ওয়েট AI মডেল এবং সরঞ্জামগুলির বিশাল ইকোসিস্টেম। যদিও একটি নির্দিষ্ট পরীক্ষার প্রান্তিক খরচ কম হতে পারে, এটি এমন ভিত্তির উপর নির্মিত যা প্রায়শই মিলিয়ন, যদি বিলিয়ন না হয়, ডলারের পূর্ব বিনিয়োগের প্রতিনিধিত্ব করে।
AI পরামর্শক সংস্থা OneSix-এর সিনিয়র লিড মেশিন লার্নিং সায়েন্টিস্ট Nina Singer গুরুত্বপূর্ণ প্রেক্ষাপট প্রদান করেছেন। তিনি উল্লেখ করেছেন যে TinyZero-এর $30 প্রশিক্ষণ খরচ, যদিও Berkeley দল দ্বারা সম্পাদিত নির্দিষ্ট কাজের জন্য সঠিক, এটি যে ভিত্তি মডেলগুলি ব্যবহার করেছে তার প্রাথমিক উন্নয়ন খরচ বিবেচনা করে না।
- জায়ান্টদের কাঁধে ভর করে: TinyZero-এর প্রশিক্ষণ শুধুমাত্র ByteDance-এর VERL সিস্টেমই নয়, Alibaba Cloud-এর Qwen, একটি ওপেন-সোর্সড LLM-কেও ব্যবহার করেছে। Alibaba তার ‘ওয়েটস’ (মডেলের ক্ষমতা সংজ্ঞায়িতকারী শেখা প্যারামিটার) জনসাধারণের কাছে প্রকাশ করার আগে Qwen বিকাশে যথেষ্ট সম্পদ – সম্ভবত মিলিয়ন – বিনিয়োগ করেছে।
- ওপেন ওয়েটসের মূল্য: Singer জোর দিয়েছিলেন যে এটি TinyZero-এর সমালোচনা নয় বরং ওপেন-ওয়েট মডেলগুলির অপরিমেয় মূল্য এবং গুরুত্ব তুলে ধরে। মডেল প্যারামিটারগুলি প্রকাশ করে, এমনকি যদি সম্পূর্ণ ডেটাসেট এবং প্রশিক্ষণ আর্কিটেকচার মালিকানাধীন থাকে, Alibaba-র মতো কোম্পানিগুলি গবেষক এবং ছোট সত্তাগুলিকে তাদের কাজের উপর ভিত্তি করে তৈরি করতে, পরীক্ষা করতে এবং উদ্ভাবন করতে সক্ষম করে, স্ক্র্যাচ থেকে ব্যয়বহুল প্রাথমিক প্রশিক্ষণ প্রক্রিয়া প্রতিলিপি করার প্রয়োজন ছাড়াই।
- ফাইন-টিউনিংয়ের গণতন্ত্রীকরণ: এই উন্মুক্ত পদ্ধতি ‘ফাইন-টিউনিং’-এর একটি ক্রমবর্ধমান ক্ষেত্রকে উৎসাহিত করে, যেখানে ছোট AI মডেলগুলিকে নির্দিষ্ট কাজের জন্য অভিযোজিত বা বিশেষায়িত করা হয়। যেমন Singer উল্লেখ করেছেন, এই ফাইন-টিউনড মডেলগুলি প্রায়শই তাদের নির্ধারিত উদ্দেশ্যে ‘আকার এবং খরচের ভগ্নাংশে অনেক বড় মডেলের প্রতিদ্বন্দ্বিতা করতে পারে’। উদাহরণ প্রচুর, যেমন Sky-T1, যা ব্যবহারকারীদের প্রায় $450-এ একটি উন্নত মডেলের নিজস্ব সংস্করণ প্রশিক্ষণ দেওয়ার ক্ষমতা প্রদান করে, অথবা Alibaba-র Qwen নিজেই, যা মাত্র $6-এ ফাইন-টিউনিং সক্ষম করে।
উন্মুক্ত ভিত্তিগুলির উপর এই নির্ভরতা একটি গতিশীল ইকোসিস্টেম তৈরি করে যেখানে উদ্ভাবন একাধিক স্তরে ঘটতে পারে। বড় সংস্থাগুলি শক্তিশালী বেস মডেল তৈরিতে প্রচুর বিনিয়োগ করে, যখন একটি বিস্তৃত সম্প্রদায় এই সম্পদগুলিকে নতুন অ্যাপ্লিকেশনগুলি অন্বেষণ করতে, গবেষণা পরিচালনা করতে এবং আরও অর্থনৈতিকভাবে বিশেষায়িত সমাধানগুলি বিকাশ করতে ব্যবহার করে। এই মিথোজীবী সম্পর্ক ক্ষেত্রে দ্রুত অগ্রগতি এবং গণতন্ত্রীকরণ চালাচ্ছে।
‘বৃহত্তর মানেই ভালো’ প্যারাডাইমকে চ্যালেঞ্জ করা
TinyZero-এর মতো প্রকল্পগুলি থেকে উদ্ভূত সাফল্যের গল্প এবং কার্যকর, স্বল্প-খরচের ফাইন-টিউনিংয়ের বৃহত্তর প্রবণতা দীর্ঘদিনের শিল্প বিশ্বাসকে একটি উল্লেখযোগ্য চ্যালেঞ্জ জানাচ্ছে যে AI-তে অগ্রগতি শুধুমাত্র স্কেলের একটি ফাংশন – আরও ডেটা, আরও প্যারামিটার, আরও কম্পিউটিং শক্তি।
Nina Singer দ্বারা হাইলাইট করা সবচেয়ে গভীর প্রভাবগুলির মধ্যে একটি হল যে ডেটার গুণমান এবং টাস্ক-নির্দিষ্ট প্রশিক্ষণ প্রায়শই নিছক মডেলের আকারের চেয়ে বেশি গুরুত্বপূর্ণ হতে পারে। TinyZero পরীক্ষাটি প্রমাণ করেছে যে এমনকি একটি অপেক্ষাকৃত ছোট মডেলও (3 বিলিয়ন প্যারামিটার) স্ব-সংশোধন এবং পুনরাবৃত্তিমূলক উন্নতির মতো জটিল আচরণ শিখতে পারে যখন একটি ভাল-সংজ্ঞায়িত টাস্কে কার্যকরভাবে প্রশিক্ষণ দেওয়া হয়।
- স্কেলে হ্রাসমান রিটার্ন?: এই অনুসন্ধানটি সরাসরি এই অনুমানকে প্রশ্নবিদ্ধ করে যে শুধুমাত্র OpenAI-এর GPT সিরিজ বা Anthropic-এর Claude-এর মতো বিশাল মডেলগুলি, তাদের শত শত বিলিয়ন বা ট্রিলিয়ন প্যারামিটার সহ, এই ধরনের অত্যাধুনিক শিক্ষার জন্য সক্ষম। Singer পরামর্শ দিয়েছেন, ‘এই প্রকল্পটি ইঙ্গিত দেয় যে আমরা হয়তো ইতিমধ্যে সেই প্রান্তিক সীমা অতিক্রম করেছি যেখানে অতিরিক্ত প্যারামিটারগুলি হ্রাসমান রিটার্ন প্রদান করে — অন্তত নির্দিষ্ট কাজের জন্য।’ যদিও বৃহত্তর মডেলগুলি সাধারণতা এবং জ্ঞানের বিস্তৃতিতে সুবিধা বজায় রাখতে পারে, নির্দিষ্ট অ্যাপ্লিকেশনগুলির জন্য, হাইপার-স্কেলড মডেলগুলি খরচ এবং গণনামূলক প্রয়োজনীয়তা উভয় ক্ষেত্রেই অতিরিক্ত হতে পারে।
- দক্ষতা এবং নির্দিষ্টতার দিকে স্থানান্তর: AI ল্যান্ডস্কেপ একটি সূক্ষ্ম কিন্তু উল্লেখযোগ্য পরিবর্তনের মধ্য দিয়ে যেতে পারে। শুধুমাত্র বৃহত্তর ভিত্তি মডেল তৈরির উপর একচেটিয়া ফোকাসের পরিবর্তে, দক্ষতা, অ্যাক্সেসযোগ্যতা এবং লক্ষ্যযুক্ত বুদ্ধিমত্তার প্রতি মনোযোগ বাড়ছে। নির্দিষ্ট ডোমেন বা কাজের জন্য ছোট, অত্যন্ত অপ্টিমাইজ করা মডেল তৈরি করা একটি কার্যকর এবং অর্থনৈতিকভাবে আকর্ষণীয় বিকল্প হিসাবে প্রমাণিত হচ্ছে।
- বন্ধ মডেলগুলির উপর চাপ: ওপেন-ওয়েট মডেলগুলির ক্রমবর্ধমান ক্ষমতা এবং প্রাপ্যতা এবং স্বল্প-খরচের ফাইন-টিউনিং কৌশলগুলি সেই সংস্থাগুলির উপর প্রতিযোগিতামূলক চাপ সৃষ্টি করে যারা প্রাথমিকভাবে সীমাবদ্ধ APIs (Application Programming Interfaces) এর মাধ্যমে তাদের AI ক্ষমতা প্রদান করে। যেমন Singer উল্লেখ করেছেন, OpenAI এবং Anthropic-এর মতো সংস্থাগুলিকে তাদের বন্ধ ইকোসিস্টেমের মূল্য প্রস্তাবকে ক্রমবর্ধমানভাবে ন্যায্যতা প্রমাণ করতে হতে পারে, বিশেষ করে ‘যেহেতু উন্মুক্ত বিকল্পগুলি নির্দিষ্ট ডোমেনে তাদের ক্ষমতার সাথে মেলে বা অতিক্রম করতে শুরু করে।’
এর মানে অগত্যা বড় ভিত্তি মডেলগুলির সমাপ্তি নয়, যা সম্ভবত গুরুত্বপূর্ণ সূচনা বিন্দু হিসাবে কাজ চালিয়ে যাবে। যাইহোক, এটি এমন একটি ভবিষ্যতের পরামর্শ দেয় যেখানে AI ইকোসিস্টেম অনেক বেশি বৈচিত্র্যময় হবে, যেখানে বিশাল সাধারণ মডেল এবং নির্দিষ্ট প্রয়োজনের জন্য তৈরি ছোট, বিশেষায়িত এবং অত্যন্ত দক্ষ মডেলগুলির বিস্তার থাকবে।
গণতন্ত্রীকরণের ঢেউ: আরও মানুষের জন্য AI?
অ্যাক্সেসযোগ্য ক্লাউড কম্পিউটিং, শক্তিশালী ওপেন-সোর্স সরঞ্জাম এবং ছোট, ফাইন-টিউনড মডেলগুলির প্রমাণিত কার্যকারিতার সঙ্গম AI ল্যান্ডস্কেপ জুড়ে গণতন্ত্রীকরণের একটি ঢেউকে উস্কে দিচ্ছে। যা একসময় বিলিয়ন-ডলার বাজেট সহ অভিজাত গবেষণা ল্যাব এবং প্রযুক্তি কর্পোরেশনগুলির একচেটিয়া ক্ষেত্র ছিল তা ধীরে ধীরে বিস্তৃত পরিসরের অভিনেতাদের কাছে অ্যাক্সেসযোগ্য হয়ে উঠছে।
ব্যক্তি, একাডেমিক গবেষক, স্টার্টআপ এবং ছোট কোম্পানিগুলি দেখতে পাচ্ছে যে তারা নিষিদ্ধ পরিকাঠামো বিনিয়োগের প্রয়োজন ছাড়াই উন্নত AI ধারণা এবং উন্নয়নের সাথে অর্থপূর্ণভাবে জড়িত হতে পারে।
- প্রবেশের বাধা হ্রাস: শত শত বা এমনকি দশ ডলারের বিনিময়ে একটি সক্ষম মডেল ফাইন-টিউন করার ক্ষমতা, ওপেন-ওয়েট ভিত্তিগুলির উপর ভিত্তি করে, পরীক্ষা এবং অ্যাপ্লিকেশন বিকাশের জন্য প্রবেশের বাধা নাটকীয়ভাবে হ্রাস করে।
- উদ্ভাবনকে উৎসাহিত করা: এই অ্যাক্সেসযোগ্যতা ক্ষেত্রের প্রতি অবদান রাখতে প্রতিভার একটি বিস্তৃত পুলকে উৎসাহিত করে। গবেষকরা আরও সহজে অভিনব ধারণা পরীক্ষা করতে পারেন, উদ্যোক্তারা আরও অর্থনৈতিকভাবে বিশেষায়িত AI সমাধান বিকাশ করতে পারেন এবং শখের মানুষরা সরাসরি অত্যাধুনিক প্রযুক্তি অন্বেষণ করতে পারেন।
- কমিউনিটি-চালিত উন্নতি: ওপেন-ওয়েট মডেলগুলির উন্নতি এবং বিশেষায়িত করার ক্ষেত্রে কমিউনিটি-চালিত প্রচেষ্টার সাফল্য সহযোগিতামূলক উন্নয়নের শক্তি প্রদর্শন করে। এই সম্মিলিত বুদ্ধিমত্তা কখনও কখনও নির্দিষ্ট কাজের জন্য আরও বন্ধ কর্পোরেট পরিবেশের মধ্যে পুনরাবৃত্তি চক্রকে ছাড়িয়ে যেতে পারে।
- একটি হাইব্রিড ভবিষ্যৎ?: সম্ভাব্য গতিপথ একটি হাইব্রিড ইকোসিস্টেমের দিকে নির্দেশ করে। বিশাল ভিত্তি মডেলগুলি AI ক্ষমতার পরম সীমানা ঠেলে দিতে থাকবে, প্ল্যাটফর্ম হিসাবে কাজ করবে। একই সাথে, একটি বৈচিত্র্যময় সম্প্রদায় দ্বারা ফাইন-টিউন করা বিশেষায়িত মডেলগুলির একটি প্রাণবন্ত ইকোসিস্টেম নির্দিষ্ট অ্যাপ্লিকেশন এবং শিল্পগুলিতে উদ্ভাবন চালাবে।
এই গণতন্ত্রীকরণ উল্লেখযোগ্য বিনিয়োগের প্রয়োজনীয়তা দূর করে না, বিশেষ করে পরবর্তী প্রজন্মের ভিত্তি মডেল তৈরিতে। যাইহোক, এটি মৌলিকভাবে উদ্ভাবন এবং প্রতিযোগিতার গতিশীলতা পরিবর্তন করে। বাজেটে অসাধারণ ফলাফল অর্জনের ক্ষমতা, যেমন TinyZero প্রকল্প এবং বৃহত্তর ফাইন-টিউনিং আন্দোলন দ্বারা উদাহরণিত, কৃত্রিম বুদ্ধিমত্তা উন্নয়নের জন্য আরও অ্যাক্সেসযোগ্য, দক্ষ এবং সম্ভাব্য আরও বৈচিত্র্যময় ভবিষ্যতের দিকে একটি পরিবর্তনের ইঙ্গিত দেয়। যুক্তির ‘আহা মোমেন্ট’ আর কেবল সিলিকন দুর্গে সীমাবদ্ধ নয়; এটি রাতের খাবারের খরচের চেয়েও কম খরচে অ্যাক্সেসযোগ্য একটি অভিজ্ঞতা হয়ে উঠছে, যা সৃজনশীলতাকে উস্কে দিচ্ছে এবং নিচ থেকে যা সম্ভব তার সীমানা ঠেলে দিচ্ছে।