گوگل سے فوری منافع سے لے کر اے آئی انقلاب تک: نوم شیزیر اور جیف ڈین

گوگل کی تکنیکی ترقی کے دو اہم ستون، موجودہ چیف سائنسدان جیف ڈین اور ٹرانسفارمر ماڈل کے پیچھے کارفرما نوم شیزیر، جو دوبارہ گوگل میں شامل ہوئے ہیں، نے حال ہی میں ایک بصیرت افروز مکالمہ کیا۔ معروف پوڈکاسٹر دوارکیش پٹیل کی میزبانی میں ہونے والی اس گفتگو میں مصنوعی ذہانت کے ارتقاء پر روشنی ڈالی گئی، جس میں میپ ریڈیوس کے ابتدائی دنوں سے لے کر ٹرانسفارمر اور ایم او ای آرکیٹیکچرز کے انقلابی دور تک کا احاطہ کیا گیا۔

گوگل میں کئی دہائیوں کا تجربہ رکھنے والے ان ماہرین نے نہ صرف انٹرنیٹ اور مصنوعی ذہانت کی اہم ٹیکنالوجیز کو دیکھا ہے بلکہ ان کی تشکیل میں بھی فعال کردار ادا کیا ہے۔ ستم ظریفی یہ ہے کہ شیزیر نے اعتراف کیا کہ گوگل میں شامل ہونے کی ان کی ابتدائی ترغیب ایک قلیل مدتی مالی فائدہ حاصل کرنا تھا، ایک ایسا منصوبہ جو بعد میں اس شعبے میں ان کی شراکت سے ڈرامائی طور پر بدل گیا۔

اے آئی کمپیوٹ کی موجودہ حالت اور مستقبل کا رجحان

ایک طویل دو گھنٹے کی گفتگو میں ڈین اور شیزیر نے اے آئی کمپیوٹ کی موجودہ صورتحال کے بارے میں انکشافات کیے، جن سے معلوم ہوا کہ:

  • آپریشنز کا پیمانہ انفرادی ڈیٹا سینٹرز سے تجاوز کر گیا ہے۔ جیمنی کی تربیت اب مختلف میٹروپولیٹن علاقوں میں متعدد ڈیٹا سینٹرز پر محیط ہے، جو غیر مطابقت پذیر طریقے سے کام کر رہے ہیں۔
  • انفرنس کمپیوٹ کو بڑھانے کی کافی گنجائش موجود ہے، کیونکہ اے آئی کے ساتھ تعامل روایتی پڑھنے کے مقابلے میں نمایاں طور پر زیادہ سستا ہے۔
  • مستقبل کے ماڈل آرکیٹیکچرز ایم او ای کی لچک سے بھی آگے جانے کے لیے تیار ہیں، جو مختلف ٹیموں کو ماڈل کے مختلف اجزاء کو آزادانہ طور پر تیار کرنے کے قابل بنائیں گے۔

خندقوں سے بصیرتیں: بگ باؤنٹیز اور مستقبل کے آرکیٹیکچرز

اس گفتگو نے سوشل میڈیا پر بھی دلچسپی پیدا کی، جہاں صارفین نے دلچسپ تصورات کو اجاگر کیا، جیسے کہ:

  • وسیع ایم او ای ماڈلز کو میموری میں ذخیرہ کرنے کی صلاحیت۔
  • کوڈ میں موجود کیڑے کے غیر متوقع فوائد، جو پیمانے میں اضافے کے ساتھ، غیر ارادی طور پر شاندار دریافتوں کا باعث بن سکتے ہیں۔

ڈین نے اس خیال کو چیلنج کیا کہ اے آئی کمپیوٹ بہت مہنگا ہے۔ ایک کتاب کے ساتھ مشغول ہونے کے مقابلے میں اسی کتاب کے بارے میں اے آئی کے ساتھ تعامل کی لاگت کا موازنہ کرتے ہوئے، انہوں نے ایک زبردست نکتہ واضح کیا:

جدید ترین لسانی ماڈلز تقریباً $10^{-18}$ فی آپریشن کی حیرت انگیز طور پر کم قیمت پر کام کرتے ہیں، جو ایک ڈالر میں پروسیس کیے جانے والے دس لاکھ ٹوکنز میں ترجمہ کرتے ہیں۔ اس کے برعکس، ایک پیپر بیک کتاب خریدنے سے فی ڈالر صرف 10,000 ٹوکنز ملتے ہیں۔

یہ واضح فرق - اے آئی تعامل کے لیے سو گنا لاگت کا فائدہ - انفرنس کمپیوٹ میں اضافے کے ذریعے اے آئی انٹیلی جنس کو بڑھانے کی غیر استعمال شدہ صلاحیت کو اجاگر کرتا ہے۔

بنیادی ڈھانچے کے نقطہ نظر سے، انفرنس کے وقت کمپیوٹ کی بڑھتی ہوئی اہمیت ڈیٹا سینٹر کی منصوبہ بندی کو نئی شکل دے سکتی ہے۔ اس کے لیے خاص طور پر انفرنس کے کاموں کے لیے تیار کردہ ہارڈ ویئر کی ضرورت پڑ سکتی ہے، جو گوگل کے پہلی نسل کے ٹی پی یوز کی یاد دلاتا ہے، جو ابتدائی طور پر انفرنس کے لیے ڈیزائن کیے گئے تھے اور بعد میں تربیت کے لیے ڈھال لیے گئے۔

تقسیم شدہ اور غیر مطابقت پذیر کمپیوٹیشن: ایک نیا پیراڈائم

انفرنس پر بڑھتے ہوئے زور سے پتہ چلتا ہے کہ ڈیٹا سینٹرز کے درمیان مسلسل مواصلات غیر ضروری ہو سکتے ہیں، جس سے ممکنہ طور پر زیادہ تقسیم شدہ اور غیر مطابقت پذیر کمپیوٹیشنل ماڈل کی طرف راہ ہموار ہو سکتی ہے۔

جیمنی 1.5 نے پہلے ہی اس راستے پر گامزن ہے، جو کئی بڑے شہروں میں کمپیوٹیشنل وسائل سے فائدہ اٹھا رہا ہے۔ تیز رفتار نیٹ ورکس مختلف ڈیٹا سینٹرز سے کمپیوٹیشنز کو ہم آہنگ کرتے ہیں، جو تربیت کے بے مثال پیمانے کو حاصل کرتے ہیں۔ بڑے ماڈلز کے لیے، جہاں ہر تربیتی مرحلے میں کئی سیکنڈ لگ سکتے ہیں، یہاں تک کہ 50 ملی سیکنڈ کی نیٹ ورک لیٹنسی بھی کم سے کم اثر ڈالتی ہے۔

انفرنس کے دائرے میں، لیٹنسی کی حساسیت ایک اہم غور و فکر بن جاتی ہے۔ اگرچہ فوری ردعمل کے لیے بہتر کم لیٹنسی کارکردگی کی ضرورت ہوتی ہے، لیکن غیر ضروری کام، جیسے کہ پیچیدہ سیاق و سباق کا تجزیہ، طویل پروسیسنگ اوقات کو برداشت کر سکتا ہے۔

ایک زیادہ موافق اور موثر نظام بیک وقت متعدد کاموں کو غیر مطابقت پذیر طریقے سے منظم کر سکتا ہے، مجموعی کارکردگی کو بڑھا سکتا ہے جبکہ صارف کے انتظار کے اوقات کو کم کر سکتا ہے۔ اس کے علاوہ، الگورتھمک ترقی، جیسے کہ چھوٹے ڈرافٹ ماڈلز کا استعمال، انفرنس کے عمل میں رکاوٹوں کو دور کر سکتا ہے۔ اس نقطہ نظر میں چھوٹے ماڈلز ممکنہ ٹوکنز تیار کرتے ہیں، جن کی تصدیق پھر بڑے ماڈلز کے ذریعے کی جاتی ہے، جو متوازی کاری کے ذریعے انفرنس کے عمل کو نمایاں طور پر تیز کرتے ہیں۔

شیزیر نے مزید کہا کہ غیر مطابقت پذیر تربیت کے دوران، ہر ماڈل ریپلکا آزادانہ طور پر کام کرتا ہے، غیر مطابقت پذیر درخواست کے لیے ایک مرکزی نظام کو گریڈینٹ اپ ڈیٹس بھیجتا ہے۔ معمولی پیرامیٹر اتار چڑھاو کے نظریاتی مضمرات کے باوجود، یہ طریقہ قابل ذکر حد تک کامیاب ثابت ہوا ہے۔

اس کے برعکس، مطابقت پذیر تربیت استحکام اور تولیدی صلاحیت فراہم کرتی ہے، جو بہت سے محققین کی ترجیح ہے۔ تربیت میں نقل پذیری کو یقینی بنانے کے لیے، ڈین نے آپریشنز کو لاگ کرنے، خاص طور پر گریڈینٹ اپ ڈیٹس اور ڈیٹا بیچ سنکرونائزیشن کی مشق کو اجاگر کیا۔ ان لاگز کو دوبارہ چلا کر، یہاں تک کہ غیر مطابقت پذیر تربیت بھی قابل تولید نتائج دے سکتی ہے، ڈیبگنگ کو زیادہ قابل انتظام بنا سکتی ہے اور ماحولیاتی عوامل کی وجہ سے ہونے والی عدم مطابقت کو کم کر سکتی ہے۔

کیڑے کا خوش قسمتی سے کردار

اس پر مزید روشنی ڈالتے ہوئے، شیزیر نے ایک دلچسپ نقطہ نظر پیش کیا:

اگرچہ تربیتی ماڈلز کو مختلف کیڑوں کا سامنا کرنا پڑتا ہے، لیکن ان ماڈلز کی موروثی شور رواداری خود ایڈجسٹمنٹ کی اجازت دیتی ہے، جس سے غیر متوقع نتائج برآمد ہوتے ہیں۔ کچھ کیڑے تو مثبت اثرات بھی دیتے ہیں، جو پیمانے میں تجرباتی بے ضابطگیوں کے بڑھنے کے ساتھ بہتری کے مواقع پیش کرتے ہیں۔

ڈیبگنگ کے طریقوں کے بارے میں پوچھے جانے پر، شیزیر نے فوری توثیق کے لیے متعدد چھوٹے پیمانے پر تجربات کرنے کے اپنے نقطہ نظر کو بیان کیا۔ یہ طریقہ کوڈ بیس کو آسان بناتا ہے اور تجرباتی سائیکلوں کو ہفتوں کے بجائے گھنٹوں تک کم کر دیتا ہے، جس سے فوری رائے اور ایڈجسٹمنٹ میں مدد ملتی ہے۔

ڈین نے اتفاق کرتے ہوئے کہا کہ ابتدائی طور پر ناموافق نتائج والے بہت سے تجربات بعد میں اہم بصیرتیں فراہم کر سکتے ہیں۔ تاہم، محققین کو کوڈ کی پیچیدگی کا سامنا کرنا پڑتا ہے۔ اگرچہ بتدریج بہتری ضروری ہے، لیکن وہ کارکردگی اور دیکھ بھال کے چیلنجز کو بھی متعارف کراتے ہیں، جس کے لیے نظام کی صفائی اور جدت کے درمیان توازن کی ضرورت ہوتی ہے۔

مستقبل کے ماڈلز کی نامیاتی ساخت

ڈین اور شیزیر اے آئی ماڈلز میں یک سنگی ڈھانچے سے ماڈیولر آرکیٹیکچرز میں ایک اہم تبدیلی کا تصور کرتے ہیں۔

جیمنی 1.5 پرو جیسے ماڈلز پہلے ہی مکسچر آف ماہرین (MoE) آرکیٹیکچر استعمال کرتے ہیں، جو کام کی بنیاد پر مختلف اجزاء کو چالو کرتے ہیں۔ مثال کے طور پر، ریاضی کے مسائل ریاضی کے ماہر حصے کو مشغول کرتے ہیں، جبکہ تصویری پروسیسنگ متعلقہ خصوصی ماڈیول کو چالو کرتی ہے۔

تاہم، موجودہ ماڈل ڈھانچے کسی حد تک سخت ہیں، ماہر ماڈیولز سائز میں یکساں ہیں اور ان میں لچک کا فقدان ہے۔ ڈین نے ایک زیادہ دور اندیشانہ وژن تجویز کیا: مستقبل کے ماڈلز کو ایک نامیاتی ڈھانچہ اپنانا چاہیے، جس سے مختلف ٹیموں کو ماڈل کے مختلف حصوں کو آزادانہ طور پر تیار کرنے یا بہتر بنانے کی اجازت ملے۔

مثال کے طور پر، جنوب مشرقی ایشیائی زبانوں میں مہارت رکھنے والی ایک ٹیم متعلقہ ماڈیول کو بہتر بنا سکتی ہے، جبکہ دوسری کوڈ کی سمجھ کو بہتر بنانے پر توجہ مرکوز کرتی ہے۔ یہ ماڈیولر نقطہ نظر نہ صرف ترقی کی کارکردگی کو بڑھاتا ہے بلکہ عالمی ٹیموں کو ماڈل کی ترقی میں حصہ ڈالنے کے قابل بھی بناتا ہے۔

تکنیکی طور پر، ماڈلز کشید کے ذریعے انفرادی ماڈیولز کو مسلسل بہتر بنا سکتے ہیں۔ اس میں بڑے، اعلی کارکردگی والے ماڈیولز کو چھوٹے، موثر ورژن میں گاڑنا شامل ہے، جو پھر نیا علم سیکھنا جاری رکھتے ہیں۔

ایک روٹر کام کی پیچیدگی کی بنیاد پر مناسب ماڈیول ورژن منتخب کر سکتا ہے، کارکردگی اور کارکردگی کو متوازن کر سکتا ہے - یہ تصور گوگل کے پاتھ وے آرکیٹیکچر کے لیے مرکزی حیثیت رکھتا ہے۔

اس نئے آرکیٹیکچر کے لیے مضبوط انفراسٹرکچر کی ضرورت ہے، بشمول طاقتور ٹی پی یو کلسٹرز اور کافی ہائی بینڈوتھ میموری (HBM)۔ اگرچہ ہر کال ماڈل کے پیرامیٹرز کا صرف ایک حصہ استعمال کر سکتی ہے، لیکن پورے نظام کو بیک وقت درخواستوں کی خدمت کے لیے مکمل ماڈل کو میموری میں رکھنے کی ضرورت ہے۔

موجودہ ماڈلز ایک کام کو 80 فیصد کامیابی کی شرح کے ساتھ 10 ذیلی کاموں میں تقسیم کر سکتے ہیں۔ مستقبل کے ماڈلز ممکنہ طور پر ایک کام کو 100 یا 1,000 ذیلی کاموں میں تقسیم کر سکتے ہیں، 90 فیصد یا اس سے زیادہ کامیابی کی شرح حاصل کر سکتے ہیں۔

“ہولی شٹ” لمحہ: درست بلی کی شناخت

پیچھے مڑ کر دیکھیں تو 2007 بڑے لسانی ماڈلز (LLMs) کے لیے ایک اہم سنگ میل تھا۔

اس وقت، گوگل نے مشین ترجمے کے لیے 2 ٹریلین ٹوکنز کا استعمال کرتے ہوئے ایک N-گرام ماڈل تیار کیا۔ تاہم، N-گرام ڈیٹا کے لیے ڈسک اسٹوریج پر انحصار کے نتیجے میں وسیع ڈسک I/O (مثال کے طور پر، 100,000 تلاشیاں/لفظ) کی وجہ سے زیادہ لیٹنسی ہوئی، جس سے ایک جملے کا ترجمہ کرنے میں 12 گھنٹے لگتے تھے۔

اس مسئلے کو حل کرنے کے لیے، انہوں نے کئی حکمت عملی تیار کیں، بشمول میموری کمپریشن، تقسیم شدہ آرکیٹیکچر، اور بیچ پروسیسنگ API آپٹیمائزیشن:

  • میموری کمپریشن: ڈسک I/O سے بچنے کے لیے N-گرام ڈیٹا کو مکمل طور پر میموری میں لوڈ کرنا۔
  • تقسیم شدہ آرکیٹیکچر: متوازی سوالات کے لیے ڈیٹا کو متعدد مشینوں (مثال کے طور پر، 200) میں تقسیم کرنا۔
  • بیچ پروسیسنگ API آپٹیمائزیشن: تھرو پٹ کو بہتر بنانے کے لیے فی درخواست اوور ہیڈ کو کم کرنا۔

اس دور میں، کمپیوٹیشنل پاور نے مور کے قانون کی پیروی کرنا شروع کر دی، جس سے تیزی سے ترقی ہوئی۔

“2008 کے آخر سے، مور کے قانون کی بدولت، نیورل نیٹ ورکس نے واقعی کام کرنا شروع کر دیا۔”

جب کسی “ہولی شٹ” لمحے کے بارے میں پوچھا گیا - ایک خاص تحقیقی کوشش کے اصل میں کام کرنے پر عدم اعتماد کا لمحہ - جیف نے گوگل کی ابتدائی ٹیم کے ایک پروجیکٹ کو یاد کیا جہاں انہوں نے یوٹیوب ویڈیو فریموں سے اعلیٰ سطحی خصوصیات (جیسے بلیوں اور پیدل چلنے والوں کو پہچاننا) سیکھنے کے لیے ایک ماڈل تیار کیا۔ تقسیم شدہ تربیت (2,000 مشینیں، 16,000 کور) کے ذریعے، انہوں نے بڑے پیمانے پر غیر زیر نگرانی سیکھنے کو حاصل کیا۔

غیر زیر نگرانی پری ٹریننگ کے بعد، زیر نگرانی کاموں (امیج نیٹ) میں ماڈل کی کارکردگی میں 60 فیصد بہتری آئی، جس سے بڑے پیمانے پر تربیت اور غیر زیر نگرانی سیکھنے کی صلاحیت کا مظاہرہ ہوا۔

اس سوال کا جواب دیتے ہوئے کہ کیا گوگل اب بھی بنیادی طور پر ایک معلوماتی بازیافت کرنے والی کمپنی ہے، جیف نے زور دیا:

“اے آئی گوگل کے اصل مشن کو پورا کرتا ہے۔”

جوہر میں، اے آئی نہ صرف معلومات بازیافت کرتا ہے بلکہ پیچیدہ مواد کو بھی سمجھتا اور تیار کرتا ہے، جس میں مستقبل کی وسیع صلاحیت ہے۔ گوگل کی مستقبل کی سمت کے بارے میں، “مجھے نہیں معلوم۔”

تاہم، گوگل اور کچھ اوپن سورس کوڈ کو ہر ڈویلپر کے سیاق و سباق میں ضم کرنے کی توقع کی جا سکتی ہے۔ دوسرے لفظوں میں، ماڈلز کو زیادہ ٹوکنز کو سنبھالنے کے قابل بنا کر، تلاش کے اندر تلاش ماڈل کی صلاحیتوں اور افادیت کو مزید بڑھا دے گی۔

اس تصور پر گوگل میں پہلے سے ہی اندرونی طور پر تجربہ کیا جا رہا ہے۔

“درحقیقت، ہم نے اپنے اندرونی کوڈ بیس پر اندرونی ڈویلپرز کے لیے جیمنی ماڈل پر مزید تربیت حاصل کر لی ہے۔”

مزید واضح طور پر، گوگل نے اندرونی طور پر اپنے کوڈ کا 25 فیصد اے آئی کے ذریعہ لکھے جانے کا ہدف حاصل کر لیا ہے۔

گوگل میں خوشگوار لمحات

دلچسپ بات یہ ہے کہ جوڑی نے گوگل سے متعلق مزید دلچسپ تجربات بھی شیئر کیے۔

1999 میں نوم کے لیے، گوگل جیسی بڑی کمپنی میں شامل ہونا شروع میں غیر پرکشش تھا، کیونکہ انہیں لگا کہ ان کی صلاحیتوں کو کم استعمال کیا جا سکتا ہے۔ تاہم، گوگل کے روزانہ تلاش کے حجم انڈیکس چارٹ کو دیکھنے کے بعد، انہوں نے فوری طور پر اپنا ذہن بدل لیا:

“یہ لوگ ضرور کامیاب ہوں گے، اور ایسا لگتا ہے کہ ان کے پاس حل کرنے کے لیے بہت سے دلچسپ مسائل ہیں۔”

وہ ایک خاص “چھوٹے” ارادے کے ساتھ شامل ہوئے:

“کچھ پیسے کمائیں اور پھر خوشی سے اپنی اے آئی تحقیق کی دلچسپیوں کو آگے بڑھائیں۔”

گوگل میں شامل ہونے پر، ان کی ملاقات اپنے سرپرست جیف سے ہوئی (نئے ملازمین کو سرپرست تفویض کیے گئے تھے)، اور انہوں نے کئی منصوبوں پر تعاون کیا۔

اس موقع پر، جیف نے گوگل کے لیے اپنی تعریف کے ساتھ مداخلت کی:

“مجھے آر ایم ویژن (ریسپانسیو اور ملٹی موڈل) کے لیے گوگل کا وسیع مینڈیٹ پسند ہے، یہاں تک کہ اگر یہ ایک سمت ہے، تو ہم بہت سے چھوٹے پروجیکٹس کر سکتے ہیں۔”

اس نے نوم کو وہ آزادی بھی فراہم کی جس کی وجہ سے وہ شخص جس نے شروع میں “ہٹ اینڈ رن” کرنے کا منصوبہ بنایا تھا، طویل عرصے تک ٹھہر گیا۔

دریں اثنا، جب موضوع جیف کی طرف مڑا، تو ان کے انڈرگریجویٹ تھیسس متوازی بیک پروپیگیشن پر دوبارہ غور کیا گیا۔

یہ 8 صفحات پر مشتمل مقالہ 1990 کا ٹاپ انڈرگریجویٹ تھیسس بن گیا اور اسے یونیورسٹی آف مینیسوٹا کی لائبریری میں محفوظ کیا گیا ہے۔ اس میں، جیف نے بیک پروپیگیشن کی بنیاد پر نیورل نیٹ ورکس کی متوازی تربیت کے لیے دو طریقوں کی کھوج کی:

  • پیٹرن پارٹیشنڈ اپروچ: ہر پروسیسر پر پورے نیورل نیٹ ورک کی نمائندگی کرنا اور دستیاب پروسیسرز کے درمیان ان پٹ پیٹرن تقسیم کرنا۔
  • نیٹ ورک پارٹیشنڈ اپروچ (پائپ لائنڈ اپروچ): دستیاب پروسیسرز میں نیورل نیٹ ورک کے نیورونز کو تقسیم کرنا، ایک مواصلاتی انگوٹھی بنانا۔ خصوصیات اس پائپ لائن سے گزرتی ہیں، ہر پروسیسر پر نیورونز کے ذریعے پروسیس کی جاتی ہیں۔

انہوں نے مختلف سائز کے نیورل نیٹ ورکس اور مختلف ان پٹ ڈیٹا کے ساتھ ان طریقوں کی جانچ کی۔ نتائج سے پتہ چلتا ہے کہ پیٹرن پارٹیشنڈ اپروچ کے لیے، بڑے نیٹ ورکس اور زیادہ ان پٹ پیٹرن نے بہتر ایکسلریشن حاصل کیا۔

سب سے قابل ذکر بات یہ ہے کہ مقالہ انکشاف کرتا ہے کہ 1990 میں ایک “بڑا” نیورل نیٹ ورک کیسا دکھتا تھا:

“ایک 3 پرت والے نیورل نیٹ ورک جس میں فی پرت 10، 21 اور 10 نیورونز تھے، کو بہت بڑا سمجھا جاتا تھا۔”

جیف نے یاد کیا کہ انہوں نے اپنی جانچ کے لیے 32 پروسیسرز تک استعمال کیا۔

(اس وقت، وہ شاید تصور نہیں کر سکتے تھے کہ 12 سال بعد، وہ، اینڈریو این جی، کوک لی اور دیگر کے ساتھ مل کر، بڑے پیمانے پر ڈیٹا سے بلیوں کی شناخت کے لیے 16,000 سی پی یو کور استعمال کریں گے۔)

تاہم، جیف نے اعتراف کیا کہ ان تحقیقی نتائج کو حقیقی معنوں میں موثر ہونے کے لیے، “ہمیں تقریباً دس لاکھ گنا زیادہ کمپیوٹنگ پاور کی ضرورت ہے۔”

بعد ازاں، انہوں نے اے آئی کے ممکنہ خطرات پر تبادلہ خیال کیا، خاص طور پر فیڈ بیک لوپ کے مسئلے پر جب اے آئی انتہائی طاقتور ہو جاتا ہے۔ دوسرے لفظوں میں، اے آئی کوڈ لکھ کر یا اپنے الگورتھم کو بہتر بنا کر ایک بے قابو ایکسلریشن لوپ (یعنی “انٹیلیجنس ایکسپلوشن”) میں داخل ہو سکتا ہے۔

اس سے اے آئی تیزی سے انسانی کنٹرول سے تجاوز کر سکتا ہے، یہاں تک کہ بدنیتی پر مبنی ورژن بھی بنا سکتا ہے۔ جیسا کہ میزبان نے کہا، “جیف جیسے دس لاکھ ٹاپ پروگرامرز کا تصور کریں، جو بالآخر دس لاکھ برے جیف میں تبدیل ہو جائیں۔”

(نیٹیزن): “نیا ڈراؤنا خواب کھل گیا، ہاہا!”

آخر میں، گوگل میں اپنے خوشگوار لمحات پر غور کرتے ہوئے، دونوں نے اپنی یادیں شیئر کیں۔

جیف کے لیے، گوگل کے ابتدائی سالوں میں سب سے زیادہ خوشی کے لمحات گوگل کی تلاش ٹریفک میں دھماکہ خیز ترقی کو دیکھنا تھا۔

“ایسی چیز بنانا جسے اب 2 ارب لوگ استعمال کرتے ہیں، ناقابل یقین ہے۔”

حال ہی میں، وہ جیمنی ٹیم کے ساتھ ایسی چیزیں بنانے پر بہت خوش ہیں جن پر پانچ سال پہلے بھی لوگوں کو یقین نہیں آتا تھا، اور وہ ماڈل کے اثرات کو مزید وسیع ہوتے ہوئے دیکھ رہے ہیں۔

نوم نے اسی طرح کے تجربات اور مشن کے احساس کو دہرایا، یہاں تک کہ گوگل کے “مائیکرو کچن ایریاز” کا بھی ذکر کیا۔

یہ تقریباً 50 میزوں کے ساتھ ایک خاص جگہ ہے، جو کافی اور اسنیکس پیش کرتی ہے، جہاں لوگ آزادانہ طور پر بات چیت کر سکتے ہیں اور خیالات کا تبادلہ کر سکتے ہیں۔

اس ذکر پر، یہاں تک کہ جیف بھی متحرک ہو گئے (ڈوج)۔