داستانی که OpenAI را خشمگین کرد: یک بررسی عمیق

در سال 2019، کارن هائو، یک گزارشگر باتجربه در MIT Technology Review، داستانی را به سردبیر خود در مورد OpenAI، شرکتی که در آن زمان عمدتاً در رادار قرار داشت، ارائه کرد. آنچه آشکار شد، سفری پر از چرخش‌های غیرمنتظره بود که نشان می‌داد تا چه اندازه جاه‌طلبی‌های OpenAI از اهداف اولیه‌اش منحرف شده است.

اولین بار در 7 آگوست 2019 وارد دفاتر OpenAI شدم. گرگ براکمن، مدیر ارشد فناوری شرکت در آن زمان، با لبخندی مردد از من استقبال کرد و اذعان داشت که اعطای چنین دسترسی گسترده‌ای برای آنها بی‌سابقه است.

در حالی که OpenAI ممکن است برای عموم مردم نسبتاً ناشناخته بوده باشد، من، به عنوان یک گزارشگر که چشم‌انداز همیشه در حال تحول هوش مصنوعی را پوشش می‌دهد، از نزدیک تحولات آن را زیر نظر داشتم.

روز های اولیه OpenAI و تغییر جهت

قبل از سال 2019، OpenAI تا حدودی یک outlier در جامعه تحقیقات هوش مصنوعی در نظر گرفته می شد. ادعای جسورانه آن در مورد دستیابی به هوش مصنوعی عمومی (AGI) در عرض یک دهه با تردید بسیاری روبرو شد. علیرغم بودجه قابل توجه، این شرکت فاقد جهت گیری واضح بود و تلاش های بازاریابی آن اغلب به عنوان تبلیغات بیش از حد تحقیقاتی تلقی می شد که توسط سایر کارشناسان غیراصلی تلقی می شد. با این وجود، OpenAI نیز حسادت را برانگیخت. به عنوان یک سازمان غیرانتفاعی، هیچ علاقه ای به تجاری سازی اعلام نکرد و محیطی منحصر به فرد برای کاوش فکری بدون محدودیت های فشارهای مالی ایجاد کرد.

با این حال، در شش ماه منتهی به بازدید من، یک سری تغییرات سریع حاکی از تغییر قابل توجهی در جهت گیری OpenAI بود. اولین نشانه، تصمیم بحث برانگیز برای عدم انتشار GPT-2، علیرغم انتشار قابلیت‌های آن بود. پس از آن، اطلاعیه انتصاب سام آلتمن به عنوان مدیرعامل، پس از خروج وی از Y Combinator (YC)، همراه با ایجاد یک ساختار “سود محدود” بود. در بحبوحه این تحولات، OpenAI از مشارکت با مایکروسافت خبر داد و به این غول فناوری اولویت تجاری سازی فناوری‌های OpenAI و استفاده انحصاری از خدمات ابری Microsoft Azure را اعطا کرد.

هر یک از این اطلاعیه‌ها جنجال، گمانه‌زنی و توجه فزاینده‌ای را فراتر از محدوده‌های صنعت فناوری ایجاد کرد. با آشکار شدن تغییرات، درک کامل اهمیت آنها دشوار بود. با این حال، واضح بود که OpenAI در حال شروع به اعمال نفوذ قابل توجهی بر تحقیقات هوش مصنوعی و نحوه درک این فناوری توسط سیاست‌گذاران بود. تصمیم به انتقال به یک تجارت نیمه انتفاعی مطمئناً پیامدهای گسترده‌ای در صنعت و دولت خواهد داشت.

یک شب، با تشویق سردبیرم، با جک کلارک، مدیر سیاست OpenAI، که قبلاً با او صحبت کرده بودم، تماس گرفتم. من یک نمای کلی در مورد OpenAI پیشنهاد کردم و حس کردم که این لحظه مهمی در تاریخ این شرکت است. کلارک من را به رئیس ارتباطات مرتبط کرد که دعوتی برای مصاحبه با رهبری و گنجاندن در شرکت به مدت سه روز ارائه کرد.

داخل OpenAI: ماموریت و جاه‌طلبی

براکمن و من در یک اتاق جلسه شیشه ای به ایلیا سوتسکور، دانشمند ارشد پیوستیم. آنها که در کنار هم نشسته بودند، نقش های یکدیگر را تکمیل می کردند. براکمن، کدنویس و پیاده‌ساز، مشتاق به نظر می‌رسید که تأثیر مثبتی بگذارد، در حالی که سوتسکور، محقق و فیلسوف، آرام‌تر و جدا به نظر می‌رسید.

من با پرسیدن در مورد ماموریت OpenAI شروع کردم: اطمینان از AGI مفید. چرا میلیاردها دلار در این مشکل نسبت به سایر مشکلات سرمایه گذاری می کنید؟

براکمن که تبحر داشت در دفاع از موقعیت OpenAI، اظهار داشت که AGI برای حل مشکلات پیچیده فراتر از توانایی‌های انسان بسیار مهم است. او تغییرات آب و هوا و دارو را به عنوان مثال ذکر کرد و پتانسیل AGI را برای تجزیه و تحلیل حجم وسیعی از داده ها و تسریع پیشرفت ها در این زمینه های حیاتی نشان داد.

او تجربه یکی از دوستانش با یک اختلال نادر را بازگو کرد و برجسته کرد که چگونه AGI می تواند با اتصال کارشناسان به طور موثر، تشخیص و درمان را ساده کند.

سپس در مورد تمایز بین AGI و AI پرسیدم.

AGI، که زمانی یک مفهوم طاقچه بود، عمدتاً به دلیل نفوذ OpenAI، جایگاه خود را به دست آورده بود. AGI به یک هوش مصنوعی فرضی اشاره دارد که در اکثر وظایف با ارزش اقتصادی با هوش انسانی مطابقت دارد یا از آن فراتر می رود. در حالی که محققان پیشرفت کرده بودند، بحث ها در مورد امکان شبیه سازی هوشیاری انسان ادامه داشت.

از سوی دیگر، AI، به هر دو فناوری فعلی و قابلیت‌های نزدیک به آینده اشاره دارد و کاربردهایی را در کاهش تغییرات آب و هوا و مراقبت‌های بهداشتی نشان می‌دهد.

سوتسکور افزود که AGI می تواند چالش های جهانی را با فعال کردن رایانه های هوشمند برای برقراری ارتباط و همکاری کارآمدتر از انسان ها، با دور زدن مشکلات انگیزه، حل کند.

این اظهارات من را برانگیخت که بپرسم آیا AGI قرار است جایگزین انسان شود. براکمن پاسخ داد که فناوری باید به مردم خدمت کند و ضمن حفظ کیفیت زندگی، “آزادی اقتصادی” را تضمین کند.

براکمن استدلال کرد که نقش OpenAI تعیین این نیست که آیا AGI ساخته خواهد شد یا خیر، بلکه تأثیرگذاری بر شرایطی است که تحت آن ایجاد می شود. او تاکید کرد که ماموریت آنها این است که اطمینان حاصل کنند که AGI با ساختن آن و توزیع مزایای اقتصادی آن، به نفع همه بشریت است.

گفتگوی ما به صورت دوره‌ای ادامه یافت، با موفقیت محدود در به دست آوردن جزئیات مشخص. من رویکرد دیگری را امتحان کردم و در مورد پتانسیل های منفی این فناوری سوال کردم.

براکمن دیپ فیک ها را به عنوان یک برنامه بالقوه منفی ذکر کرد.

من تاثیرات زیست محیطی خود هوش مصنوعی را مطرح کردم.

سوتسکور این مسئله را تصدیق کرد اما استدلال کرد که AGI می تواند هزینه های زیست محیطی را خنثی کند. او بر نیاز به مراکز داده سبز تاکید کرد.

سوتسکور ادامه داد: “مراکز داده بزرگترین مصرف کننده انرژی، برق هستند.”

من پیشنهاد کردم: “این 2 درصد در سطح جهانی است.”

براکمن گفت: “آیا بیت کوین حدود 1 درصد نیست؟”

سوتسکور بعداً گفت: “من فکر می کنم کاملاً محتمل است که مدت زیادی طول نکشد که کل سطح زمین با مراکز داده و نیروگاه ها پوشیده شود.” “سونامی از محاسبات وجود خواهد داشت. . . تقریبا مانند یک پدیده طبیعی.”

من آنها را به چالش کشیدم که OpenAI در حال قمار است که با موفقیت به AGI سودمند دست خواهد یافت تا در برابر گرمایش جهانی مقابله کند قبل از اینکه خود عمل انجام این کار ممکن است آن را تشدید کند.

براکمن با عجله گفت: “نحوه فکر ما در مورد آن به شرح زیر است: ما در حال بالا رفتن از پیشرفت هوش مصنوعی هستیم. این بزرگتر از OpenAI است، درست است؟ این زمینه است. و من فکر می کنم جامعه در واقع از آن سود می برد.”

او با اشاره به سرمایه‌گذاری جدید 1 میلیارد دلاری مایکروسافت، گفت: “روزی که این معامله را اعلام کردیم، ارزش بازار مایکروسافت 10 میلیارد دلار افزایش یافت. مردم معتقدند که بازگشت سرمایه مثبت حتی فقط در فناوری کوتاه مدت وجود دارد.”

استراتژی OpenAI بنابراین بسیار ساده بود، او توضیح داد: برای همگام شدن با آن پیشرفت.

بعداً در همان روز، براکمن تکرار کرد که هیچ کس واقعاً نمی داند AGI چگونه خواهد بود و افزود که وظیفه آنها این است که به پیشروی ادامه دهند تا شکل فناوری را گام به گام کشف کنند.

پشت صحنه: شفافیت و کنترل

من در ابتدا قرار بود ناهار را با کارمندان در کافه تریا صرف کنم، اما به من اطلاع داده شد که باید بیرون از دفتر باشم. براکمن سرپرست من خواهد بود.

این الگو در طول بازدید من تکرار شد: دسترسی محدود به مناطق خاص، جلساتی که نمی توانستم در آنها شرکت کنم، و محققانی که به سرپرست ارتباطات نگاه می کردند تا مطمئن شوند که هیچ سیاستی را نقض نمی کنند. پس از بازدید من، جک کلارک هشداری جدی به کارمندان در Slack ارسال کرد که فراتر از مکالمات مجاز با من صحبت نکنند. عکس من نیز به نگهبان امنیتی داده شده بود تا در صورت حضور غیرمجاز من در محوطه، مراقب من باشند. این رفتارها در تضاد با تعهد OpenAI به شفافیت بود و سوالاتی را در مورد آنچه پنهان می شد ایجاد می کرد.

در هنگام ناهار و در روزهای بعد، من از براکمن در مورد انگیزه هایش برای بنیانگذاری OpenAI سوال کردم. او اظهار داشت که پس از مقاله ای از آلن تورینگ، وسواس ایده تکرار هوش انسانی شده است. این الهام بخش او بود. او یک بازی تست تورینگ را کدنویسی کرد و آن را به صورت آنلاین قرار داد و حدود 1500 بازدید به دست آورد. این باعث شد احساس شگفت انگیزی داشته باشد. او گفت: “من فقط متوجه شدم که این نوع چیزی است که می خواستم دنبال کنم.”

او در سال 2015 به عنوان یکی از بنیانگذاران به OpenAI پیوست و خاطرنشان کرد که هر کاری می کند تا AGI را به ثمر برساند، حتی اگر به معنای سرایدار بودن باشد. چهار سال بعد که ازدواج کرد، مراسم مدنی خود را در دفتر OpenAI در مقابل یک دیوار گل سفارشی با شکل لوگوی شش ضلعی آزمایشگاه برگزار کرد. سوتسکور عهده دار این امر بود.

براکمن به من گفت: “اساساً، می خواهم بقیه عمرم روی AGI کار کنم.”

من در مورد انگیزه او سوال کردم.

براکمن به شانس کار بر روی یک فناوری دگرگون کننده در طول عمر خود اشاره کرد. او معتقد بود که در موقعیت منحصر به فردی برای تحقق آن تحول است. او گفت: “چیزی که واقعاً مرا به خود جلب می کند، مشکلاتی هستند که اگر در آن شرکت نکنم، به همان شکل پیش نخواهند رفت.”

او می خواست AGI را رهبری کند و آرزوی شناخت برای دستاوردهایش را داشت. در سال 2022، او رئیس جمهور OpenAI شد.

سود، ماموریت و رقابت

در طول گفتگوهایمان، براکمن ادعا کرد که تغییرات ساختاری OpenAI ماموریت اصلی آن را تغییر نداده است. ساختار سود محدود و سرمایه گذاران جدید آن را ارتقا بخشیدند. او گفت: “ما موفق شدیم این سرمایه گذاران همسو با ماموریت را دریافت کنیم که مایلند ماموریت را بر بازده اولویت دهند. این یک چیز دیوانه وار است.”

OpenAI اکنون منابعی برای مقیاس بندی مدل های خود و پیشی گرفتن از رقابت داشت. عدم انجام این کار می تواند ماموریت آن را تضعیف کند. این فرض بود که تمام اقدامات OpenAI و پیامدهای گسترده آنها را به حرکت درآورد. این یک ساعت تیک تاک را برای هر یک از پیشرفت‌های تحقیقاتی OpenAI تنظیم کرد، نه بر اساس مقیاس زمانی بررسی دقیق، بلکه بر اساس سرعت بی‌امانی که برای عبور از خط پایان قبل از هر کس دیگری مورد نیاز بود. این مصرف مقدار بی‌شماری از منابع توسط OpenAI را توجیه کرد.

براکمن بر اهمیت توزیع مجدد مزایای AGI تاکید کرد.

من در مورد نمونه های تاریخی از فناوری هایی که با موفقیت مزایای را بین مردم توزیع کرده اند، سوال کردم.

او گفت: “خوب، من در واقع فکر می کنم که حتی جالب است که به اینترنت به عنوان مثال نگاه کنیم.” او به عنوان یک احتیاط گفت: “مشکلاتی هم وجود دارد، درست است؟” “هر وقت چیزی فوق العاده متحول کننده داشته باشید، تشخیص اینکه چگونه مثبت را به حداکثر برسانید، منفی را به حداقل برسانید، آسان نخواهد بود.

او افزود: “آتش مثال دیگری است. همچنین معایب واقعی برای آن وجود دارد. بنابراین ما باید بفهمیم که چگونه آن را تحت کنترل نگه داریم و استانداردهای مشترک داشته باشیم.

او ادامه داد: “خودروها مثال خوبی هستند. افراد زیادی خودرو دارند، مزایای زیادی برای مردم دارد. آنها معایبی نیز دارند. آنها پیامدهای جانبی دارند که لزوماً برای جهان خوب نیستند.” او با تردید سخنانش را به پایان رساند.

او گفت: “حدس می زنم من فقط اینطور می بینم - چیزی که ما برای AGI می خواهیم با جنبه های مثبت اینترنت، جنبه های مثبت خودروها، جنبه های مثبت آتش چندان متفاوت نیست. با این حال، اجرای آن بسیار متفاوت است، زیرا این نوع بسیار متفاوتی از فناوری است.

چشمانش با ایده جدیدی روشن شد. “فقط به خدمات رفاهی نگاه کنید. شرکت های برق، شرکت های برق نهادهای بسیار متمرکزی هستند که چیزهای کم هزینه و با کیفیت بالا را ارائه می دهند که به طور معناداری زندگی مردم را بهبود می بخشد.

به نظر می رسید براکمن یک بار دیگر در مورد اینکه OpenAI چگونه خود را به یک ابزار رفاهی تبدیل می کند، نامشخص است.

او به تنها چیزی که قطعا می دانست بازگشت. OpenAI متعهد به توزیع مجدد مزایای AGI و دادن آزادی اقتصادی به همه بود. او گفت: “ما در واقع این را می خواهیم.”

او گفت: “نحوه فکر ما در مورد آن این است: فناوری تاکنون چیزی بوده است که تمام قایق ها را بالا می برد، اما این اثر تمرکز واقعی را دارد. AGI می تواند شدیدتر باشد. اگر تمام ارزش در یک مکان قفل شود چه؟ این مسیری است که ما به عنوان یک جامعه در آن قرار داریم. و ما هرگز این حد شدید را ندیده ایم. فکر نمی کنم این دنیای خوبی باشد. این دنیایی نیست که من بخواهم در ساخت آن کمک کنم.”

سقوط و واکنش

در فوریه 2020، من پروفایل خود را برای MIT Technology Review منتشر کردم و عدم انطباق بین تصویر عمومی OpenAI و عملکردهای داخلی آن را فاش کردم. من گفتم که “با گذشت زمان، رقابت شدید وفشار فزاینده برای بودجه بیشتر به ارزش های اساسی آن یعنی شفافیت، گشودگی و همکاری ضربه زده است.”

ایلان ماسک با سه توییت پاسخ داد:

“به نظر من OpenAI باید بازتر باشد”

او با اشاره به داریو آمودی، مدیر تحقیقات، گفت: “من هیچ کنترلی ندارم و دید بسیار محدودی نسبت به OpenAI دارم. اطمینان به داریو برای ایمنی زیاد نیست.”

“تمام سازمان‌هایی که هوش مصنوعی پیشرفته را توسعه می‌دهند، از جمله تسلا، باید تنظیم شوند.”

آلتمن ایمیلی به کارمندان OpenAI ارسال کرد.

او در مورد مقاله MIT Technology Review نوشت: “در حالی که قطعا فاجعه بار نبود، اما بدیهی بود که بد بود.”

او نوشت که این “یک انتقاد منصفانه” بود که این قطعه عدم ارتباط بین ادراک OpenAI و واقعیت آن را شناسایی کرده بود. او پیشنهاد می کند که آمودی و ماسک با هم ملاقات کنند تا انتقاد ماسک را حل کنند. او نوشت: برای جلوگیری از هرگونه شک و تردید، کار آمودی و ایمنی هوش مصنوعی برای این ماموریت بسیار مهم است. “من فکر می کنم ما باید در مقطعی در آینده راهی برای دفاع عمومی از تیم خود پیدا کنیم (اما به مطبوعات نبرد عمومی را که دوست دارند در حال حاضر ندهیم).”

پس از این مقاله، OpenAI به مدت سه سال دیگر با من صحبت نکرد.