যুক্তি মডেলের পেছনে গণনার উল্লম্ফন
OpenAI প্রকাশ্যে জানিয়েছে যে o1-এর তুলনায় o3-কে দশগুণ বেশি কম্পিউটেশনাল রিসোর্স দিয়ে প্রশিক্ষণ দেওয়া হয়েছে—যা মাত্র চার মাসে অর্জিত একটি উল্লেখযোগ্য বৃদ্ধি। OpenAI-এর তৈরি একটি চার্ট AIME গণিত বেঞ্চমার্কে কম্পিউটেশনাল পাওয়ার এবং পারফরম্যান্সের মধ্যে ঘনিষ্ঠ সম্পর্ককে স্পষ্টভাবে তুলে ধরে। Epoch AI অনুমান করে যে এই পরিসংখ্যানগুলি বিশেষভাবে প্রশিক্ষণের দ্বিতীয় ধাপ, যুক্তি প্রশিক্ষণের সাথে সম্পর্কিত, সম্পূর্ণ মডেল প্রশিক্ষণ প্রক্রিয়ার সাথে নয়।
এই পরিসংখ্যানগুলোকে ভালোভাবে বোঝার জন্য, Epoch AI তুলনামূলক মডেলগুলো পরীক্ষা করেছে। উদাহরণস্বরূপ, DeepSeek-R1, প্রায় 6e23 FLOP (ফ্লোটিং পয়েন্ট অপারেশনস পার সেকেন্ড) দিয়ে প্রশিক্ষিত হয়েছে বলে জানা যায়, যার আনুমানিক খরচ $1 মিলিয়ন, এবং এটি o1-এর অনুরূপ বেঞ্চমার্ক ফলাফল অর্জন করেছে।
প্রযুক্তি জায়ান্ট Nvidia এবং Microsoft যুক্তি মডেলের উন্নয়নে অবদান রেখেছে, যা সর্বজনীনভাবে অ্যাক্সেসযোগ্য প্রশিক্ষণ ডেটা সরবরাহ করে। Nvidia-এর Llama-Nemotron Ultra 253B তার যুক্তি প্রশিক্ষণ পর্বের জন্য প্রায় 140,000 H100 GPU-ঘণ্টা ব্যবহার করেছে, যা প্রায় 1e23 FLOP-এর সমান। Microsoft-এর Phi-4-রিজনিং এমনকি 1e20 FLOP-এর নিচে, আরও কম কম্পিউটেশনাল পাওয়ার ব্যবহার করেছে। এই মডেলগুলোকে আলাদা করার একটি গুরুত্বপূর্ণ বিষয় হল অন্যান্য AI সিস্টেম দ্বারা তৈরি সিনথেটিক প্রশিক্ষণ ডেটার উপর তাদের ভারী নির্ভরতা। Epoch AI জোর দেয় যে এই নির্ভরতা o3-এর মতো মডেলগুলোর সাথে সরাসরি তুলনা করা কঠিন করে তোলে, কারণ বাস্তব এবং সিনথেটিক ডেটার মধ্যে সহজাত পার্থক্য রয়েছে এবং এর মডেল শেখার এবং সাধারণীকরণের উপর প্রভাব রয়েছে।
\"যুক্তি প্রশিক্ষণ\" সংজ্ঞায়িত করা: একটি অস্পষ্ট ক্ষেত্র
আরেকটি জটিলতার স্তর তৈরি হয়েছে "যুক্তি প্রশিক্ষণ"-এর একটি সর্বজনীনভাবে স্বীকৃত সংজ্ঞার অভাব থেকে। রিইনফোর্সমেন্ট লার্নিং ছাড়াও, কিছু মডেল তত্ত্বাবধানে সূক্ষ্ম-টিউনিংয়ের মতো কৌশল অন্তর্ভুক্ত করে। কম্পিউট অনুমানের মধ্যে অন্তর্ভুক্ত উপাদানগুলো সম্পর্কে অস্পষ্টতা অসঙ্গতি তৈরি করে, যা বিভিন্ন মডেলের মধ্যে সঠিকভাবে রিসোর্স তুলনা করাকে কঠিন করে তোলে।
বর্তমান সময়ে, যুক্তি মডেলগুলো এখনও Grok 3-এর মতো সবচেয়ে বিস্তৃত AI প্রশিক্ষণ রানের তুলনায় উল্লেখযোগ্যভাবে কম কম্পিউটেশনাল পাওয়ার খরচ করে, যা 1e26 FLOP ছাড়িয়ে যায়। সমসাময়িক যুক্তি প্রশিক্ষণ পর্যায়গুলো সাধারণত 1e23 এবং 1e24 FLOP-এর মধ্যে কাজ করে, যা সম্ভাব্য সম্প্রসারণের জন্য যথেষ্ট জায়গা রাখে—অথবা প্রথম নজরে তাই মনে হয়।
Anthropic-এর CEO ডারিও অ্যামো দেই একই ধরনের দৃষ্টিভঙ্গি পোষণ করেন। তিনি মনে করেন যে যুক্তি প্রশিক্ষণে $1 মিলিয়ন বিনিয়োগ করলে উল্লেখযোগ্য অগ্রগতি হতে পারে। তবে, কোম্পানিগুলো এই দ্বিতীয় প্রশিক্ষণ পর্বের বাজেট শত শত মিলিয়ন ডলার বা তার বেশি বাড়ানোর উপায়গুলো সক্রিয়ভাবে অন্বেষণ করছে, যা এমন একটি ভবিষ্যতের ইঙ্গিত দেয় যেখানে প্রশিক্ষণের অর্থনীতি নাটকীয়ভাবে পরিবর্তিত হবে।
যদি প্রতি তিন থেকে পাঁচ মাসে কম্পিউটেশনাল পাওয়ারের প্রায় দশগুণ বৃদ্ধির বর্তমান প্রবণতা অব্যাহত থাকে, তাহলে যুক্তি প্রশিক্ষণ কম্পিউট আগামী বছরের গোড়ার দিকে নেতৃস্থানীয় মডেলগুলোর মোট প্রশিক্ষণ কম্পিউটের সাথে তাল মিলিয়ে চলতে পারে। তবে, জশ ইউ অনুমান করেন যে প্রবৃদ্ধি শেষ পর্যন্ত বছরে প্রায় 4x বৃদ্ধি পর্যন্ত ধীর হয়ে যাবে, যা বৃহত্তর শিল্প প্রবণতার সাথে সামঞ্জস্যপূর্ণ। এই ধীরগতি সম্ভবত প্রশিক্ষণ বিনিয়োগের উপর ক্রমহ্রাসমান রিটার্ন, কম্পিউট রিসোর্সের ক্রমবর্ধমান খরচ এবং উপলব্ধ প্রশিক্ষণ ডেটার সীমাবদ্ধতাসহ বিভিন্ন কারণের সংমিশ্রণ দ্বারা চালিত হবে।
গণনার বাইরে: দিগন্তের সীমাবদ্ধতা
Epoch AI জোর দেয় যে কম্পিউটেশনাল পাওয়ার একমাত্র সীমাবদ্ধ কারণ নয়। যুক্তি প্রশিক্ষণের জন্য প্রচুর পরিমাণে উচ্চ-মানের, চ্যালেঞ্জিং কাজের প্রয়োজন। এই ধরনের ডেটা অর্জন করা কঠিন; এটিকে সিনথেটিকভাবে তৈরি করা আরও বেশি কঠিন। সিনথেটিক ডেটার সমস্যা শুধু প্রমাণীকরণ নয়; অনেকে বলেন যে এর মান খারাপ। উপরন্তু, গণিত এবং কম্পিউটার প্রোগ্রামিংয়ের মতো অত্যন্ত কাঠামোগত ডোমেনের বাইরে এই পদ্ধতির কার্যকারিতা অনিশ্চিত রয়ে গেছে। তবুও, ChatGPT-এর "ডিপ রিসার্চ"-এর মতো প্রকল্প, যা o3-এর একটি কাস্টম-টিউনড সংস্করণ ব্যবহার করে, বৃহত্তর প্রয়োগের সম্ভাবনা নির্দেশ করে।
উপযুক্ত কাজ নির্বাচন করা, পুরস্কার ফাংশন ডিজাইন করা এবং প্রশিক্ষণ কৌশল তৈরি করার মতো শ্রম-নিবিড় পর্দার পেছনের কাজগুলোও চ্যালেঞ্জ তৈরি করে। এই উন্নয়নমূলক খরচগুলো, প্রায়শই কম্পিউট অনুমান থেকে বাদ দেওয়া হয়, যুক্তি প্রশিক্ষণের সামগ্রিক ব্যয়ে উল্লেখযোগ্যভাবে অবদান রাখে।
এই অসুবিধাগুলো সত্ত্বেও, OpenAI এবং অন্যান্য ডেভেলপাররা আশাবাদী। Epoch AI যেমন উল্লেখ করেছে, যুক্তি প্রশিক্ষণের জন্য স্কেলিং কার্ভগুলো বর্তমানে প্রি-ট্রেনিংয়ে পরিলক্ষিত ক্লাসিক লগ-লিনিয়ার অগ্রগতির মতো। উপরন্তু, o3 শুধুমাত্র গণিতেই নয়, এজেন্ট-ভিত্তিক সফ্টওয়্যার কাজেও যথেষ্ট উন্নতি প্রদর্শন করে, যা এই নতুন পদ্ধতির বহুমুখী সম্ভাবনা নির্দেশ করে।
এই অগ্রগতির ভবিষ্যৎ প্রযুক্তিগত, অর্থনৈতিক এবং বিষয়বস্তুর ক্ষেত্রে যুক্তি প্রশিক্ষণের মাপযোগ্যতার উপর নির্ভর করে। নিম্নলিখিত পয়েন্টগুলো বেশ কয়েকটি মূল কারণ অন্বেষণ করে যা এই মডেলগুলোর ভবিষ্যৎ নির্ধারণ করবে:
- প্রযুক্তিগত মাপযোগ্যতা: বলতে প্রশিক্ষণে ব্যবহৃত কম্পিউটেশনাল রিসোর্সকে বাড়ানোর ক্ষমতাকে বোঝায়, কোনো দুর্গম প্রযুক্তিগত বাধা ছাড়াই। এর মধ্যে বৃহত্তর ডেটাসেট এবং আরও শক্তিশালী কম্পিউটিং অবকাঠামোকে দক্ষতার সাথে ব্যবহার করার জন্য হার্ডওয়্যার, সফ্টওয়্যার এবং অ্যালগরিদমের অগ্রগতি অন্তর্ভুক্ত। মডেলের আকার এবং জটিলতা বৃদ্ধির সাথে সাথে, ক্রমাগত উন্নতির জন্য প্রযুক্তিগত মাপযোগ্যতা ক্রমবর্ধমান গুরুত্বপূর্ণ হয়ে ওঠে। মডেলগুলোর বিশাল আকারের সাথে তাল মিলিয়ে চলার জন্য অন্তর্নিহিত আর্কিটেকচারের বিবর্তন প্রয়োজন হবে।
- অর্থনৈতিক মাপযোগ্যতা: যুক্তিসঙ্গত বাজেট সীমার মধ্যে কম্পিউটেশনাল রিসোর্স বাড়ানোর সম্ভাব্যতা বোঝায়। যদি প্রশিক্ষণের খরচ মডেলের আকারের সাথে রৈখিকভাবে বা ঘাতকীয়ভাবে বৃদ্ধি পায়, তবে আরও লাভের জন্য চেষ্টা করা অত্যন্ত ব্যয়বহুল হতে পারে। তাই, সস্তা এবং আরও দক্ষ প্রশিক্ষণের প্রয়োজন হতে পারে। হার্ডওয়্যারের উদ্ভাবন এবং অপ্টিমাইজেশন কৌশল যা প্রতি FLOP খরচ কমায় তা অর্থনৈতিক মাপযোগ্যতার জন্য অত্যন্ত গুরুত্বপূর্ণ। প্রবণতাটি ছিল আরও বড় মডেলগুলোর উপর মনোযোগ দেওয়া, তবে একটি সীমিত বাজেট থাকার কারণে, প্রণোদনা সবচেয়ে দক্ষ মডেলগুলোকে প্রশিক্ষিত করার দিকে সরে যাবে।
- বিষয়বস্তু মাপযোগ্যতা: উচ্চ-মানের প্রশিক্ষণ ডেটার উপলব্ধতাকে তুলে ধরে যা যুক্তির ক্ষমতা বৃদ্ধিতে কার্যকরভাবে কাজ করতে পারে। মডেলগুলো আরও অত্যাধুনিক হওয়ার সাথে সাথে, সেগুলোকে চ্যালেঞ্জ জানাতে এবং অতিরিক্ত ফিটিং প্রতিরোধ করতে আরও কঠিন এবং বিভিন্ন ডেটাসেটের প্রয়োজন হয়। এই ধরনের ডেটাসেটের উপলব্ধতা সীমিত, বিশেষ করে যে ডোমেনগুলোতে জটিল যুক্তির প্রয়োজন হয়। সিনথেটিক ডেটা জেনারেশন কৌশল এই সীমাবদ্ধতাকে কমাতে সাহায্য করতে পারে, তবে মডেলের পারফরম্যান্সকে খারাপ করতে পারে এমন পক্ষপাত বা ভুলগুলো এড়াতে সেগুলোকে সাবধানে ডিজাইন করতে হবে।
গণনার ভবিষ্যৎ
সাধারণ মানুষ হিসেবে এটা ভাবা সহজ যে আমরা অসীম গণনার পথে আছি। তবে, বাস্তবে, এটি সীমিত, এবং ভবিষ্যতে, সেই সীমা আরও স্পষ্ট হয়ে উঠতে পারে। এই বিভাগে, আমরা কয়েকটি উপায় অন্বেষণ করব যাতে গণনা ভবিষ্যতে বিকশিত হতে পারে এবং সেই পরিবর্তনগুলো কীভাবে LLM শিল্পকে প্রভাবিত করবে।
কোয়ান্টাম কম্পিউটিং
কোয়ান্টাম কম্পিউটিং গণনার একটি দৃষ্টান্ত পরিবর্তন উপস্থাপন করে, যা কোয়ান্টাম মেকানিক্সের নীতিগুলোকে কাজে লাগিয়ে এমন সমস্যাগুলো সমাধান করে যা ক্লাসিক্যাল কম্পিউটারের জন্য সমাধান করা কঠিন। যদিও এটি এখনও শৈশবকালে রয়েছে, কোয়ান্টাম কম্পিউটিং AI ওয়ার্কলোডের গতি বাড়ানোর জন্য বিশাল সম্ভাবনা রাখে, যার মধ্যে যুক্তি মডেল প্রশিক্ষণও রয়েছে। কোয়ান্টাম অ্যানিলিং এবং ভেরিয়েশনাল কোয়ান্টাম ইগেনসলভারের (VQEs) মতো কোয়ান্টাম অ্যালগরিদমগুলো সম্ভবত ক্লাসিক্যাল অপ্টিমাইজেশন পদ্ধতির চেয়ে আরও দক্ষতার সাথে মডেল প্যারামিটার অপ্টিমাইজ করতে পারে, প্রশিক্ষণের জন্য প্রয়োজনীয় কম্পিউটেশনাল রিসোর্স হ্রাস করে। উদাহরণস্বরূপ, কোয়ান্টাম মেশিন লার্নিং অ্যালগরিদমগুলো জটিল নিউরাল নেটওয়ার্কগুলোর অপ্টিমাইজেশনকে বাড়িয়ে তুলতে পারে, যার ফলে দ্রুত প্রশিক্ষণের সময় এবং সম্ভবত আরও ভাল মডেল পারফরম্যান্স হতে পারে।
তবে, কোয়ান্টাম কম্পিউটারগুলোকে স্কেল আপ করা এবং শক্তিশালী কোয়ান্টাম অ্যালগরিদম তৈরি করার ক্ষেত্রে উল্লেখযোগ্য চ্যালেঞ্জ রয়ে গেছে। প্রযুক্তিটি এখনও মূলত পরীক্ষামূলক, এবং পর্যাপ্ত কিউবিট (কোয়ান্টাম বিট) এবং কোহেরেন্স সময় সহ ব্যবহারিক কোয়ান্টাম কম্পিউটার এখনও সহজে পাওয়া যায় না। উপরন্তু, নির্দিষ্ট AI কাজের জন্য তৈরি কোয়ান্টাম অ্যালগরিদম তৈরি করার জন্য বিশেষ দক্ষতার প্রয়োজন এবং এটি গবেষণার একটি চলমান ক্ষেত্র। AI-তে কোয়ান্টাম কম্পিউটিংয়ের ব্যাপক গ্রহণ এখনও কয়েক বছর দূরে এবং কম্পিউটারগুলো উপলব্ধ হওয়ার পরেই এটি বাস্তবসম্মত হতে পারে।
নিউরোমর্ফিক কম্পিউটিং
নিউরোমর্ফিক কম্পিউটিং গণনা করার জন্য মানব মস্তিষ্কের গঠন এবং কার্যকারিতার অনুকরণ করে। বাইনারি লজিক এবং সিকোয়েন্সিয়াল প্রক্রিয়াকরণের উপর নির্ভরশীল ঐতিহ্যবাহী কম্পিউটারগুলোর বিপরীতে, নিউরোমর্ফিক চিপগুলো সমান্তরাল এবং শক্তি-দক্ষ পদ্ধতিতে তথ্য প্রক্রিয়াকরণের জন্য কৃত্রিম নিউরন এবং সিনাপেস ব্যবহার করে। এই আর্কিটেকচারটি AI কাজের জন্য উপযুক্ত, যার মধ্যে প্যাটার্ন স্বীকৃতি, শেখা এবং অভিযোজন জড়িত, যেমন যুক্তি মডেল প্রশিক্ষণ। নিউরোমর্ফিক চিপগুলো সম্ভাব্যভাবে বড় AI মডেলগুলোকে প্রশিক্ষিত করার সাথে সম্পর্কিত শক্তি খরচ এবং বিলম্ব কমাতে পারে, যা এটিকে আরও অর্থনৈতিকভাবে কার্যকর এবং পরিবেশ বান্ধব করে তোলে।
Intel-এর Loihi এবং IBM-এর TrueNorth নিউরোমর্ফিক চিপগুলোর উদাহরণ যা AI অ্যাপ্লিকেশনগুলোতে আশাব্যঞ্জক ফলাফল দেখিয়েছে। এই চিপগুলো ঐতিহ্যবাহী CPU এবং GPU-এর তুলনায় উল্লেখযোগ্যভাবে কম শক্তি খরচ করে জটিল AI কাজগুলো করতে সক্ষম। তবে, নিউরোমর্ফিক কম্পিউটিং এখনও একটি তুলনামূলকভাবে নতুন ক্ষেত্র, এবং শক্তিশালী প্রোগ্রামিং সরঞ্জাম তৈরি করা এবং নিউরোমর্ফিক আর্কিটেকচারের জন্য অ্যালগরিদম অপ্টিমাইজ করার ক্ষেত্রে চ্যালেঞ্জ রয়ে গেছে। উপরন্তু, নিউরোমর্ফিক হার্ডওয়্যারের সীমিত উপলব্ধতা এবং নিউরোমর্ফিক কম্পিউটিংয়ে ব্যাপক দক্ষতার অভাব মূলধারার AI অ্যাপ্লিকেশনগুলোতে এই প্রযুক্তির গ্রহণকে বাধা দিয়েছে।
অ্যানালগ কম্পিউটিং
অ্যানালগ কম্পিউটিং তথ্য উপস্থাপন এবং প্রক্রিয়া করার জন্য বিচ্ছিন্ন ডিজিটাল সংকেতের পরিবর্তে ভোল্টেজ বা কারেন্টের মতো ক্রমাগত শারীরিক পরিমাণ ব্যবহার করে। অ্যানালগ কম্পিউটারগুলো ডিজিটাল কম্পিউটারের চেয়ে অনেক দ্রুত এবং আরও দক্ষতার সাথে কিছু গাণিতিক অপারেশন করতে পারে, যেমন ডিফারেনশিয়াল ইকুয়েশন এবং লিনিয়ার অ্যালজেব্রা, বিশেষ করে এমন কাজগুলোতে যা যুক্তির জন্য দরকারী হতে পারে। অ্যানালগ গণনা মডেলগুলোকে প্রশিক্ষণ দেওয়ার জন্য বা প্রয়োজনে অনুমান চালানোর জন্য দরকারী হতে পারে।
তবে, অ্যানালগ কম্পিউটিং নির্ভুলতা, মাপযোগ্যতা এবং প্রোগ্রামযোগ্যতার ক্ষেত্রে চ্যালেঞ্জের সম্মুখীন হয়। অ্যানালগ সার্কিটগুলো শব্দ এবং ড্রিফটের জন্য সংবেদনশীল, যা গণনার নির্ভুলতাকে হ্রাস করতে পারে। বড় এবং জটিল AI মডেলগুলোকে পরিচালনা করার জন্য অ্যানালগ কম্পিউটারগুলোকে স্কেল আপ করাও একটি প্রযুক্তিগত চ্যালেঞ্জ। উপরন্তু, অ্যানালগ কম্পিউটার প্রোগ্রামিংয়ের জন্য সাধারণত বিশেষ দক্ষতার প্রয়োজন হয় এবং ডিজিটাল কম্পিউটার প্রোগ্রামিংয়ের চেয়ে এটি আরও কঠিন। এই অসুবিধাগুলো সত্ত্বেও, নির্দিষ্ট AI অ্যাপ্লিকেশনগুলোর জন্য ডিজিটাল কম্পিউটিংয়ের একটি সম্ভাব্য বিকল্প হিসেবে, বিশেষ করে যেগুলোর উচ্চ গতি এবং শক্তি দক্ষতার প্রয়োজন, অ্যানালগ কম্পিউটিংয়ের প্রতি আগ্রহ বাড়ছে।
বিতরণকৃত কম্পিউটিং
বিতরণকৃত কম্পিউটিং একটি নেটওয়ার্ক দ্বারা সংযুক্ত একাধিক মেশিন বা ডিভাইসের মধ্যে AI ওয়ার্কলোড বিতরণ করা জড়িত। এই পদ্ধতিটি সংস্থাগুলোকে AI প্রশিক্ষণ এবং অনুমানকে দ্রুত করার জন্য বিপুল সংখ্যক রিসোর্সের সম্মিলিত কম্পিউটিং পাওয়ার ব্যবহার করতে দেয়। বিতরণকৃত কম্পিউটিং বৃহৎ ভাষার মডেল (LLM) এবং অন্যান্য জটিল AI মডেলগুলোকে প্রশিক্ষণ দেওয়ার জন্য অপরিহার্য, যার জন্য বিশাল ডেটাসেট এবং কম্পিউটেশনাল রিসোর্সের প্রয়োজন হয়।
TensorFlow, PyTorch এবং Apache Spark-এর মতো কাঠামো মেশিনগুলোর ক্লাস্টারে AI ওয়ার্কলোড বিতরণ করার জন্য সরঞ্জাম এবং API সরবরাহ করে। এই কাঠামো সংস্থাগুলোকে প্রয়োজনে আরও কম্পিউটিং রিসোর্স যুক্ত করে তাদের AI ক্ষমতা বাড়াতে দেয়। তবে, বিতরণকৃত কম্পিউটিং ডেটা ব্যবস্থাপনা, যোগাযোগের ওভারহেড এবং সিঙ্ক্রোনাইজেশনের ক্ষেত্রে চ্যালেঞ্জ তৈরি করে। একাধিক মেশিনে দক্ষতার সাথে ডেটা বিতরণ করা এবং যোগাযোগের বিলম্ব কমানো বিতরণকৃত AI সিস্টেমগুলোর কর্মক্ষমতা সর্বাধিক করার জন্য অত্যন্ত গুরুত্বপূর্ণ। উপরন্তু, সঠিক এবং নির্ভরযোগ্য ফলাফল অর্জনের জন্য বিভিন্ন মেশিন বা ডিভাইসগুলো সঠিকভাবে সিঙ্ক্রোনাইজড এবং সমন্বিত হয়েছে তা নিশ্চিত করা অপরিহার্য।
উপসংহার
যুক্তি মডেলগুলোর গতিপথ নিঃসন্দেহে কম্পিউটেশনাল রিসোর্সের প্রাপ্যতা এবং মাপযোগ্যতার সাথে জড়িত। যদিও বর্ধিত গণনার দ্বারা চালিত অগ্রগতির বর্তমান গতি চিত্তাকর্ষক, বেশ কয়েকটি কারণ, যার মধ্যে উচ্চ-মানের প্রশিক্ষণ ডেটার অভাব, গণনার ক্রমবর্ধমান খরচ এবং বিকল্প কম্পিউটিং দৃষ্টান্তের উত্থানসহ বেশ কয়েকটি বিষয় ইঙ্গিত করে যে অবাধ গণনা স্কেলিংয়ের যুগ তার সীমার কাছাকাছি আসতে পারে। যুক্তি মডেলগুলোর ভবিষ্যৎ সম্ভবত AI ক্ষমতা উন্নত করতে আমাদের এই সীমাবদ্ধতাগুলো অতিক্রম করার এবং নতুন পদ্ধতির অন্বেষণ করার ক্ষমতার উপর নির্ভর করবে। এই সমস্ত তথ্যের সাথে, আমরা ধরে নিতে পারি যে বেশ কয়েকটি আলোচিত সীমাবদ্ধতার কারণে যুক্তি মডেলগুলোর ক্ষমতা বৃদ্ধি শীঘ্রই ধীর হতে শুরু করতে পারে।