استدلال ماڈلز: کمپیوٹ کی حدود

استدلال ماڈلز کی متوقع بلند سطح: کیوں کمپیوٹ سکیلنگ کا استدلال ماڈل لازمی حدود کا سامنا کرتا ہے

استدلال ماڈلز، جنھیں بڑے لسانی ماڈلز (LLMs) کے ارتقاء میں اگلی بڑی چھلانگ کے طور پر سراہا جاتا ہے، نے قابل ذکر پیشرفت کا مظاہرہ کیا ہے، خاص طور پر ان ڈومینز میں جن میں پیچیدہ مسائل کو حل کرنے کی ضرورت ہوتی ہے، جیسے کہ ریاضی اور کمپیوٹر پروگرامنگ۔ یہ نفیس نظام، جو ایک اضافی “استدلال کی تربیت” کے مرحلے سے ممتاز ہیں، کمک سیکھنے کا فائدہ اٹھاتے ہوئے پیچیدہ چیلنجوں سے نمٹنے کے لیے اپنی صلاحیتوں کو بہتر بناتے ہیں۔ OpenAI کا o3 ایک اہم مثال کے طور پر کھڑا ہے، جو اپنے پیشرو o1 کے مقابلے میں نمایاں کارکردگی میں اضافہ ظاہر کرتا ہے، جیسا کہ بینچ مارک تشخیص کے مطابق ہے۔ اب جو مرکزی سوال اس شعبے پر منڈلا رہا ہے وہ اس پیشرفت کی پائیداری ہے۔ کیا یہ ماڈلز محض کمپیوٹیشنل طاقت میں اضافہ کر کے اسی شرح سے ترقی کرتے رہ سکتے ہیں؟

Epoch AI، ایک تحقیقی تنظیم جو مصنوعی ذہانت کے معاشرتی اثرات پر مرکوز ہے، نے اس سوال کو کھولنے کا کام اپنے ہاتھ میں لیا ہے۔ جوش یو، Epoch AI میں ایک ڈیٹا تجزیہ کار، نے استدلال کی تربیت میں کمپیوٹیشنل سرمایہ کاری کی موجودہ سطح کا تعین کرنے اور توسیع کے باقی ممکنہ امکانات کا جائزہ لینے کے لیے ایک جامع تجزیہ کیا ہے۔

استدلال ماڈلز کے پیچھے کمپیوٹیشن میں اضافہ

OpenAI نے عوامی طور پر کہا ہے کہ o3 کو o1 کے مقابلے میں استدلال کے لیے وقف دس گنا زیادہ کمپیوٹیشنل وسائل کے ساتھ تربیت دی گئی تھی - ایک اہم اضافہ جو صرف چار مہینوں میں حاصل کیا گیا۔ OpenAI کی تیار کردہ ایک چارٹ واضح طور پر AIME ریاضی کے بینچ مارک پر کمپیوٹیشنل طاقت اور کارکردگی کے درمیان گہرے تعلق کو ظاہر کرتا ہے۔ Epoch AI کا مفروضہ ہے کہ یہ اعداد و شمار خاص طور پر تربیت کے دوسرے مرحلے، استدلال کی تربیت سے متعلق ہیں، نہ کہ مکمل ماڈل کی تربیت کے عمل سے۔

ان اعداد و شمار کو تناظر میں رکھنے کے لیے، Epoch AI نے موازنہ ماڈلز کا جائزہ لیا۔ DeepSeek-R1، مثال کے طور پر، مبینہ طور پر تقریباً 6e23 FLOP (فی سیکنڈ تیرتے نقطہ آپریشنز) کے ساتھ تربیت دی گئی، جس کی تخمینی لاگت $1 ملین ہے، نے o1 کے مماثل بینچ مارک نتائج حاصل کیے۔

ٹیک جنات Nvidia اور Microsoft نے بھی استدلال ماڈلز کی ترقی میں تعاون کیا ہے، عوامی طور پر قابل رسائی تربیتی ڈیٹا فراہم کر کے۔ Nvidia کے Llama-Nemotron Ultra 253B نے اپنی استدلال کی تربیت کے مرحلے کے لیے تقریباً 140,000 H100 GPU-گھنٹے استعمال کیے، جو تقریباً 1e23 FLOP کے برابر ہے۔ Microsoft کے Phi-4-reasoning نے اس سے بھی کم کمپیوٹیشنل طاقت استعمال کی، 1e20 FLOP سے نیچے۔ ان ماڈلز میں فرق کرنے والا ایک اہم عنصر مصنوعی تربیتی ڈیٹا پر ان کا بھاری انحصار ہے جو دوسرے AI سسٹمز کے ذریعے تیار کیا گیا ہے۔ Epoch AI زور دیتا ہے کہ یہ انحصار o3 جیسے ماڈلز کے ساتھ براہ راست موازنہ کرنا زیادہ مشکل بناتا ہے کیونکہ حقیقی اور مصنوعی ڈیٹا کے درمیان موجود فطری اختلافات اور ماڈل سیکھنے اور عمومیت پر اس کے اثرات ہیں۔

“استدلال کی تربیت” کی تعریف: ایک مبہم علاقہ

پیچیدگی کی ایک اور پرت “استدلال کی تربیت” کی عالمگیر سطح پر قبول شدہ تعریف کی کمی سے پیدا ہوتی ہے۔ کمک سیکھنے کے علاوہ، کچھ ماڈلز نگران فائن ٹیوننگ جیسی تکنیکوں کو شامل کرتے ہیں۔ کمپیوٹ تخمینوں میں شامل اجزاء کے ارد گرد ابہام عدم تسلسل کا سبب بنتا ہے، جس سے مختلف ماڈلز میں درست طریقے سے وسائل کا موازنہ کرنا مشکل ہو जाता ہے۔

ابھی تک، استدلال ماڈلز اب بھی سب سے زیادہ وسیع AI تربیتی رنز کے مقابلے میں نمایاں طور پر کم کمپیوٹیشنل طاقت استعمال کرتے ہیں، جیسے کہ Grok 3، جو 1e26 FLOP سے زیادہ ہے۔ عصری استدلال کی تربیت کے مراحل عام طور پر 1e23 اور 1e24 FLOP کے درمیان کام کرتے ہیں، جس سے ممکنہ توسیع کے لیے کافی گنجائش باقی رہ جاتی ہے - یا ایسا پہلی نظر میں لگتا ہے۔

Dario Amodei، Anthropic کے CEO، بھی اسی طرح کا نقطہ نظر رکھتے ہیں۔ ان کا کہنا ہے کہ استدلال کی تربیت میں $1 ملین کی سرمایہ کاری نمایاں پیشرفت کا باعث بن سکتی ہے۔ تاہم، کمپنیاں اس ثانوی تربیتی مرحلے کے لیے بجٹ کو بڑھا کر لاکھوں ڈالر اور اس سے بھی زیادہ کرنے کے طریقے تلاش کر رہی ہیں، جو ایک ایسے مستقبل کی تجویز پیش کرتا ہے جہاں تربیت کی معاشیات ڈرامائی طور پر تبدیل ہو جائیں۔

اگر ہر تین سے پانچ مہینوں میں کمپیوٹیشنل طاقت میں تقریباً دس گنا اضافے کا موجودہ رجحان جاری رہتا ہے، تو استدلال کی تربیت کمپیوٹ ممکنہ طور پر اگلے سال کے اوائل میں سرفہرست ماڈلز کی کل تربیتی کمپیوٹ تک پہنچ سکتی ہے۔ تاہم، جوش یو کو توقع ہے کہ ترقی بالآخر تقریباً 4x فی سال تک سست ہو جائے گی، جو وسیع تر صنعتی رجحانات کے مطابق ہے۔ اس سست روی کو ممکنہ طور پر عوامل کے مجموعے سے چلایا جائے گا، بشمول تربیت میں سرمایہ کاری پر گھٹتے ہوئے منافع، کمپیوٹ وسائل کی بڑھتی ہوئی قیمت، اور دستیاب تربیتی ڈیٹا کی حدود۔

کمپیوٹ سے آگے: افق پر رکاوٹیں

Epoch AI زور دیتا ہے کہ کمپیوٹیشنل طاقت واحد محدود عنصر نہیں ہے۔ استدلال کی تربیت کے لیے اعلیٰ معیار کے، مشکل کاموں کی کافی مقدار کی ضرورت ہوتی ہے۔ اس طرح کا ڈیٹا حاصل کرنا مشکل ہے؛ اسے مصنوعی طور پر تیار کرنا اس سے بھی زیادہ مشکل ہے۔ مصنوعی ڈیٹا کے ساتھ مسئلہ صرف صداقت نہیں ہے۔ بہت سے لوگ دلیل دیتے ہیں کہ معیار ناقص ہے۔ مزید برآں، ریاضی اور کمپیوٹر پروگرامنگ جیسے انتہائی منظم ڈومینز سے باہر اس نقطہ نظر کی تاثیر غیر یقینی ہے۔ اس کے باوجود، ChatGPT میں “Deep Research” جیسے پروجیکٹس، جو o3 کے ایک کسٹم ٹیونڈ ورژن کا استعمال کرتے ہیں، وسیع تر اطلاق کے لیے صلاحیت کا اشارہ دیتے ہیں۔

لیبر پر مبنی پس پردہ کام، جیسے کہ مناسب کاموں کا انتخاب، انعامی افعال کو ڈیزائن کرنا، اور تربیتی حکمت عملی تیار کرنا، بھی چیلنجز کا باعث بنتے ہیں۔ یہ ترقیاتی اخراجات، جنہیں اکثر کمپیوٹ تخمینوں سے خارج کر دیا جاتا ہے، استدلال کی تربیت کے مجموعی اخراجات میں نمایاں طور پر حصہ ڈالتے ہیں۔

ان چیلنجوں کے باوجود، OpenAI اور دیگر ڈویلپرز پر امید ہیں۔ جیسا کہ Epoch AI نے نوٹ کیا، استدلال کی تربیت کے لیے سکیلنگ کرووز فی الحال پری ٹریننگ میں دیکھی جانے والی کلاسک لاگ لکیری پیش رفت سے ملتی جلتی ہے۔ مزید برآں، o3 نہ صرف ریاضی میں بلکہ ایجنٹ پر مبنی سافٹ ویئر کے کاموں میں بھی نمایاں فوائد کا مظاہرہ کرتا ہے، جو اس نئے نقطہ نظر کی ورسٹائل صلاحیت کی نشاندہی کرتا ہے۔

اس پیشرفت کا مستقبل استدلال کی تربیت کی سکیل ایبلٹی پر منحصر ہے - تکنیکی طور پر، اقتصادی طور پر، اور مواد کے لحاظ سے۔ درج ذیل نکات کئی اہم عوامل کی کھوج کرتے ہیں جو ان ماڈلز کے مستقبل کا تعین کریں گے:

  • تکنیکی سکیل ایبلٹی: تربیت میں استعمال ہونے والے کمپیوٹیشنل وسائل کو ناقابل تسخیر تکنیکی رکاوٹوں کا سامنا کیے بغیر بڑھانے کی صلاحیت سے مراد ہے۔ اس میں بڑے ڈیٹا سیٹس اور زیادہ طاقتور کمپیوٹنگ انفراسٹرکچر کو مؤثر طریقے سے استعمال کرنے کے لیے ہارڈ ویئر، سافٹ ویئر اور الگورتھم میں پیشرفت شامل ہے۔ جیسے جیسے ماڈلز سائز اور پیچیدگی میں بڑھتے ہیں، تکنیکی سکیل ایبلٹی مسلسل پیش رفت کے لیے تیزی سے اہم ہوتی جاتی ہے۔ بنیادی فن تعمیر کو ماڈلز کے خالص پیمانے کے ساتھ رفتار برقرار رکھنے کے لیے تیار ہونے کی ضرورت ہوگی۔
  • اقتصادی سکیل ایبلٹی: مناسب بجٹ کی حدود کے اندر کمپیوٹیشنل وسائل کو بڑھانے کے امکانات پر مشتمل ہے۔ اگر تربیت کی لاگت ماڈل کے سائز کے ساتھ لکیری یا تیزی سے بڑھتی ہے، تو مزید فوائد حاصل کرنا ممنوعہ طور پر مہنگا ہو سکتا ہے۔ اس طرح، سستی اور زیادہ موثر تربیت ضروری ہو سکتی ہے۔ ہارڈ ویئر اور آپٹیمائزیشن تکنیکوں میں جدت طرازی جو فی FLOP لاگت کو کم کرتی ہے اقتصادی سکیل ایبلٹی کے لیے بہت اہم ہے۔ رجحان ہمیشہ بڑے ماڈلز پر توجہ مرکوز کرنا رہا ہے لیکن ایک محدود بجٹ کے ساتھ، ترغیبات انتہائی موثر ماڈلز کو تربیت دینے کی طرف منتقل ہو جائیں گی۔
  • مواد کی سکیل ایبلٹی: اعلیٰ معیار کے تربیتی ڈیٹا کی دستیابی کو نمایاں کرتی ہے جو استدلال کی صلاحیت میں مؤثر طریقے سے فوائد حاصل کر سکے۔ جیسے جیسے ماڈلز زیادہ نفیس ہوتے جاتے ہیں، انہیں چیلنج کرنے اور اوور فٹنگ سے روکنے کے لیے زیادہ مشکل اور متنوع ڈیٹا سیٹس کی ضرورت ہوتی ہے۔ اس طرح کے ڈیٹا سیٹس کی دستیابی محدود ہے، خاص طور پر ان ڈومینز میں جن میں پیچیدہ استدلال کی ضرورت ہوتی ہے۔ مصنوعی ڈیٹا جنریشن تکنیک اس رکاوٹ کو کم کرنے میں مدد کر سکتی ہیں، لیکن ماڈل کی کارکردگی کو کم کر سکنے والے تعصبات یا غلطیوں سے بچنے کے لیے انہیں احتیاط سے ڈیزائن کیا جانا چاہیے۔

کمپیوٹ کا مستقبل

عام لوگوں کی حیثیت سے یہ سوچنا آسان ہے کہ ہم لامحدود کمپیوٹ کے راستے پر گامزن ہیں۔ تاہم، حقیقت میں، یہ محدود ہے، اور مستقبل میں، وہ حد زیادہ واضح ہو سکتی ہے۔ اس سیکشن میں، ہم ان چند طریقوں کی کھوج کریں گے جن سے کمپیوٹ مستقبل میں تیار ہو سکتا ہے اور ان تبدیلیوں سے LLM انڈسٹری کیسے متاثر ہو گی۔

کوانٹم کمپیوٹنگ

کوانٹم کمپیوٹنگ کمپیوٹیشن میں ایک مثالی تبدیلی کی نمائندگی کرتی ہے، جو کلاسیکی کمپیوٹرز کے لیے ناقابل ترغیب مسائل کو حل کرنے کے لیے کوانٹم میکانکس کے اصولوں کا فائدہ اٹھاتی ہے۔ اگرچہ اب بھی اپنے ابتدائی مراحل میں ہے، کوانٹم کمپیوٹنگ میں AI ورک لوڈز کو تیز کرنے کی بے پناہ صلاحیت موجود ہے، بشمول استدلال ماڈل کی تربیت۔ کوانٹم الگورتھم جیسے کوانٹم اینیلنگ اور ویریئشنل کوانٹم ایگین سولوورز (VQEs) ممکنہ طور پر ماڈل کے پیرامیٹرز کو کلاسیکی آپٹیمائزیشن طریقوں کے مقابلے میں زیادہ موثر طریقے سے آپٹیمائز کر سکتے ہیں، جس سے تربیت کے لیے درکار کمپیوٹیشنل وسائل کم ہو جاتے ہیں۔ مثال کے طور پر، کوانٹم مشین لرننگ الگورتھم پیچیدہ نیورل نیٹ ورکس کی اصلاح کو بڑھا سکتے ہیں، جس سے تربیت کے اوقات تیز ہوتے ہیں اور ممکنہ طور پر ماڈل کی بہتر کارکردگی ہوتی ہے۔

تاہم، کوانٹم کمپیوٹرز کو بڑھانے اور مضبوط کوانٹم الگورتھم تیار کرنے میں اہم چیلنجز باقی ہیں۔ یہ ٹیکنالوجی ابھی بھی زیادہ تر تجرباتی ہے، اور کافی qubits (کوانٹم بٹس) اور coherence اوقات کے ساتھ عملی کوانٹم کمپیوٹرز ابھی تک آسانی سے دستیاب نہیں ہیں۔ مزید برآں، مخصوص AI کاموں کے مطابق کوانٹم الگورتھم تیار کرنے کے لیے خصوصی مہارت درکار ہوتی ہے اور یہ تحقیق کا ایک جاری شعبہ ہے۔ AI میں کوانٹم کمپیوٹنگ کا وسیع پیمانے پر اپنانا کئی سال دور ہے اور اس وقت تک عملی ہونے کا امکان ہے جب تک کہ کمپیوٹر دستیاب نہ ہوں۔

نیورومورفک کمپیوٹنگ

نیورومورفک کمپیوٹنگ کمپیوٹیشن کرنے کے لیے انسانی دماغ کی ساخت اور فنکشن کی نقل کرتی ہے۔ روایتی کمپیوٹرز کے برعکس جو بائنری منطق اور متواتر پروسیسنگ پر انحصار کرتے ہیں، نیورومورفک چپس متوازی اور توانائی سے موثر طریقے سے معلومات پر کارروائی کرنے کے لیے مصنوعی نیورونز اور synapses کا استعمال کرتی ہیں۔ یہ فن تعمیر AI کاموں کے لیے موزوں ہے جس میں پیٹرن کی شناخت، سیکھنے اور موافقت شامل ہے، جیسے کہ استدلال ماڈل کی تربیت۔ نیورومورفک چپس ممکنہ طور پر بڑے AI ماڈلز کی تربیت سے وابستہ توانائی کی کھپت اور تاخیر کو کم کر سکتی ہیں، جس سے یہ اقتصادی طور پر قابل عمل اور ماحولیاتی طور پر پائیدار ہو جاتا ہے۔

Intel کا Loihi اور IBM کا TrueNorth نیورومورفک چپس کی مثالیں ہیں جنہوں نے AI ایپلی کیشنز میں امید افزا نتائج کا مظاہرہ کیا ہے۔ یہ چپس روایتی CPUs اور GPUs کے مقابلے میں نمایاں طور پر کم بجلی کی کھپت کے ساتھ پیچیدہ AI کام انجام देने کے قابل ہیں۔ تاہم، نیورومورفک کمپیوٹنگ ابھی بھی ایک نسبتاً نیا شعبہ ہے، اور مضبوط پروگرامنگ ٹولز تیار کرنے اور نیورومورفک فن تعمیر کے لیے الگورتھم کو بہتر بنانے میں چیلنجز باقی ہیں۔ مزید برآں، نیورومورفک ہارڈویئر کی محدود دستیابی اور نیورومورفک کمپیوٹنگ میں وسیع پیمانے پر مہارت کی کمی نے اس ٹیکنالوجی کو مرکزی دھارے میں شامل AI ایپلی کیشنز میں اپنانے میں رکاوٹ ڈالی ہے۔

اینالاگ کمپیوٹنگ

اینالاگ کمپیوٹنگ معلومات کی نمائندگی کرنے اور ان پر کارروائی کرنے کے لیے مسلسل جسمانی مقداروں، جیسے کہ وولٹیج یا کرنٹ کا استعمال کرتی ہے، بجائے اس کے کہ علیحدہ ڈیجیٹل سگنلز استعمال کیے جائیں۔ اینالاگ کمپیوٹرز بعض ریاضیاتی آپریشنز، جیسے کہ تفریق مساوات اور لکیری الجبرا، ڈیجیٹل کمپیوٹرز کے مقابلے میں بہت تیزی سے اور زیادہ مؤثر طریقے سے انجام دے سکتے ہیں، خاص طور پر ان کاموں میں جو استدلال کے لیے کارآمد ہو سکتے ہیں۔ اینالاگ کمپیوٹیشن ماڈلز کو تربیت دینے یا ضرورت پڑنے پر نتائج چلانے के लिये کارآمد ہو سکتا ہے۔

تاہم، اینالاگ کمپیوٹنگ کو درستگی، سکیل ایبلٹی اور پروگرام ایبلٹی میں چیلنجز کا سامنا ہے۔ اینالاگ سرکٹس شور और ڈرفٹ کا شکار ہوتے ہیں، جو کمپیوٹیشنز کی درستگی کو کم کر سکتے ہیں۔ بڑے اور پیچیدہ AI ماڈلز کو سنبھالنے کے لیے اینالاگ کمپیوٹرز کو بڑھانا بھی ایک تکنیکی چیلنج ہے۔ مزید برآں، اینالاگ کمپیوٹرز کو پروگرام کرنے کے لیے عام طور پر خصوصی مہارت درکار ہوتی ہے اور ڈیجیٹل کمپیوٹرز کو پروگرام करने سے زیادہ مشکل होता है। ان چیلنجوں کے باوجود، خاص AI ایپلی کیشنز کے لیے ڈیجیٹل کمپیوٹنگ کے ممکنہ متبادل کے طور پر اینالاگ کمپیوٹنگ میں بڑھتی ہوئی دلچسپی ہے، خاص طور पर وہ جو تیز رفتار और توانائی کی کارکردگی کا مطالبہ کرتے ہیں۔

تقسیم شدہ کمپیوٹنگ

تقسیم شدہ کمپیوٹنگ میں AI ورک لوڈز کو ایک نیٹ ورک سے منسلک متعدد مشینوں یا آلات پر تقسیم کرنا शामिल ہے۔ یہ طریقہ کار تنظیموں کو AI ٹریننگ और انفرنس کو تیز کرنے کے लिए بڑی تعداد میں وسائل کی اجتماعی कंप्यूटنگ پاور کا فائدہ اٹھانے کی اجازت देता है। 분산 컴퓨팅 بڑے لسانی ماڈلز (LLMs) اور دیگر پیچیدہ AI ماڈلز کی تربیت کے लिए ضروری ہے جن کے لیے بڑے ڈیٹا سیٹس ਅਤੇ کمپیوٽੇਸ਼ਨਲ ਵਸੀਏ ਦੀ ਲੋੜ ਹندی ਹੈ।

TensorFlow, PyTorch, اور Apache Spark جیسے فریم ورक्स машинਾਂ ਦੇ ਕਲੱਸਟਰਾਂ ਵਿੱਚ AI ਵਰਕਲ ਲੋਡ ਡਿਸਟ्रीਬ્યૂਟ ਕਰਨ учун ਟੂਲ और APIs ਪ੍ਰਦਾਨ ਕਰਦੇ ਹਨ। યે ફ્રેમવર организация ને જરૂરિયાત අනුව જાદુ કમ્પ્યુટਿੰગ રિસોર્સ ને એડ કરકે آپی AI ક્ષમતા کو اسکیل آپ کرنے کی اجازت ਦਿੰਦੇ ਹਾਂ। تاہم، phân tán 컴퓨ٹنگ डाटा प्रबँधन, संચાર अधिभार, और समन्वय में चुनौतियां पेश करती है। متعدد машинਾਂ ਵਿੱਚ ડાટી эффективно ડાટી эффективно ડાટી ડાટી ડિસ્ટ્રીબ્યૂટ કરવા اور සන්නිවේදන વિલંબനെ લઘુત્તમ બનાવਣਾ 분San AI সিস্টেমની પરફોર્મન્સ максимально બનાવવા માટે महत्त्वपूर्ण ہے۔ આ ઉપરાંત, આ સુનિશ્ચિત કરવું કે જુદી જુદી મશીનો හෝ ಸಾಧનો યોગ્ય રીતે સінક્રનાઇઝ કરવામાં આવ્યા છે এবং સінક્રનાઇઝ કરવામાં આવ્યા છે અને সমন্বित કરી رہے ਹਨ અને সমন্বિત કરી रहे ਹਨ và විශ්වසනීය પરિણામો प्राप्त કરવા માટે આવશ્યક છે।

نتیجہ

استدلال ماڈلز का प्रोग्रेस्स अनिवार्य रूप से کمپیوٹیشنل وسائل के उपयोगिता ਅਤੇ स्केलेबिलिटी के साथ जुड़ा हुआ है। जबकि увеличен 컴퓨ٹ के कारण वर्तमान उन्नति की गति प्रभावशाली है, उच्च गुणवत्ता वाले प्रशिक्षण डेटा की कमी, کمپیوٹ की बढ़ती मूल्य và वैकल्पिक कंप्यूटिंग प्रतिमानों के उद्भव سمیت कई कारक सुजाते है कि नियंत्रित कंप्यूट स्केलिंग का युग अपनी सीमाओं के निकट हो सकता है। استدلال ماڈلز का भविष्य सम्भवतः AI क्षमता को बेहतर बनाने के लिए इन सीमाओं को दूर करने की ہماری क्षमता और नए दृष्टिकोनो की खोज कर निर्भर करेगा। इन सारी जानकारी के साथ, हम यह मान सकते हैं कि استدلال मॉडल क्षमताओं में वृद्धि जल्द ही चर्चा की गई कई बाधाओं में से एक के लिए धीमी होने लग सकती है।