انتقاد مدیر سابق OpenAI از روایت 'بازنویسی‌شده' ایمنی هوش مصنوعی

سرزنش عمومی در رسانه های اجتماعی

روز چهارشنبه، مایلز بروندیج، پژوهشگر سابق و برجسته سیاست در OpenAI، علناً از این شرکت انتقاد کرد. او OpenAI را به “بازنویسی تاریخ” رویکرد خود در قبال استقرار سیستم های هوش مصنوعی بالقوه خطرناک متهم کرد. بروندیج، که پیش‌تر نقش مهمی در شکل‌دهی چارچوب سیاست‌گذاری OpenAI داشت، نگرانی‌های خود را از طریق رسانه‌های اجتماعی ابراز کرد و بحثی را در مورد موضع در حال تحول این شرکت در مورد ایمنی هوش مصنوعی برانگیخت.

فلسفه 'استقرار تکراری' OpenAI

انتقاد بروندیج در پی انتشار سندی توسط OpenAI در اوایل هفته صورت می‌گیرد. این سند جزئیات فلسفه فعلی این شرکت در مورد ایمنی و همسویی هوش مصنوعی را شرح می‌دهد. همسویی، در این زمینه، به فرآیند طراحی سیستم‌های هوش مصنوعی اشاره دارد که به روش‌های قابل پیش‌بینی، مطلوب و قابل توضیح رفتار می‌کنند.

در این سند، OpenAI توسعه هوش عمومی مصنوعی (AGI) را به عنوان یک “مسیر پیوسته” توصیف کرد. AGI به طور کلی به عنوان سیستم‌های هوش مصنوعی تعریف می‌شود که قادر به انجام هر کار فکری‌ای هستند که یک انسان می‌تواند انجام دهد. OpenAI اظهار داشت که این مسیر پیوسته مستلزم “استقرار و یادگیری مکرر” از فناوری‌های هوش مصنوعی است. این امر یک رویکرد تدریجی و گام به گام را پیشنهاد می‌کند که در آن درس‌های آموخته شده از استقرارهای قبلی، موارد بعدی را آگاه می‌سازد.

جنجال GPT-2: یک نقطه اختلاف

با این حال، بروندیج روایت OpenAI را به چالش می‌کشد، به ویژه در مورد انتشار GPT-2. او ادعا می‌کند که GPT-2، در زمان انتشار، واقعاً مستلزم احتیاط قابل توجهی بود. این ادعا مستقیماً با این مفهوم که استراتژی استقرار تکراری فعلی نشان دهنده انحراف از شیوه‌های گذشته است، در تضاد است.

بروندیج استدلال می‌کند که رویکرد محتاطانه OpenAI در قبال انتشار GPT-2، در واقع، کاملاً با استراتژی استقرار تکراری امروزی آن سازگار بود. او فرض می‌کند که چارچوب‌بندی فعلی این شرکت از تاریخچه خود به دنبال کم‌اهمیت جلوه دادن خطرات مرتبط با مدل‌های قبلی است.

نگرانی‌ها در مورد تغییر بار اثبات

یک عنصر اصلی انتقاد بروندیج بر چیزی متمرکز است که او آن را تغییری در بار اثبات در مورد نگرانی‌های ایمنی هوش مصنوعی می‌داند. او ابراز نگرانی می‌کند که سند OpenAI قصد دارد چارچوبی را ایجاد کند که در آن نگرانی‌ها در مورد خطرات بالقوه به عنوان “هشداردهنده” برچسب‌گذاری شوند.

به گفته بروندیج، این چارچوب مستلزم “شواهد قاطع از خطرات قریب الوقوع” برای توجیه هر اقدامی برای کاهش این خطرات است. او استدلال می‌کند که چنین ذهنیتی هنگام برخورد با سیستم‌های پیشرفته هوش مصنوعی “بسیار خطرناک” است، جایی که پیامدهای پیش‌بینی‌نشده می‌تواند پیامدهای قابل توجهی داشته باشد.

اتهامات اولویت‌بندی 'محصولات درخشان'

OpenAI در گذشته با اتهاماتی مبنی بر اولویت‌بندی توسعه و انتشار “محصولات درخشان” نسبت به ملاحظات ایمنی مواجه شده است. منتقدان پیشنهاد کرده‌اند که این شرکت، در مواقعی، برای به دست آوردن مزیت رقابتی در چشم‌انداز به سرعت در حال تحول هوش مصنوعی، عرضه‌های محصول را تسریع کرده است.

انحلال تیم آمادگی AGI و جدایی‌ها

انحلال تیم آمادگی AGI در سال گذشته، نگرانی‌ها در مورد تعهد OpenAI به ایمنی را بیشتر کرد. این تیم به طور خاص وظیفه ارزیابی و آماده‌سازی برای تأثیرات بالقوه اجتماعی AGI را بر عهده داشت.

علاوه بر این، تعدادی از محققان ایمنی و سیاست هوش مصنوعی از OpenAI جدا شده‌اند، که بسیاری از آنها متعاقباً به شرکت‌های رقیب پیوسته‌اند. این جدایی‌ها سؤالاتی را در مورد فرهنگ داخلی و اولویت‌ها در OpenAI ایجاد کرده است.

افزایش فشارهای رقابتی

چشم انداز رقابتی در زمینه هوش مصنوعی در زمان های اخیر به طور قابل توجهی تشدید شده است. به عنوان مثال، آزمایشگاه هوش مصنوعی چینی DeepSeek با مدل R1 خود که به طور آشکار در دسترس است، توجه جهانی را به خود جلب کرد. این مدل عملکردی قابل مقایسه با مدل o1 “استدلال” OpenAI را در چندین معیار کلیدی نشان داد.

سام آلتمن، مدیر عامل OpenAI، علناً اذعان کرده است که پیشرفت‌های DeepSeek برتری تکنولوژیکی OpenAI را کاهش داده است. آلتمن همچنین اشاره کرده است که OpenAI برای بهبود موقعیت رقابتی خود، برخی از عرضه‌های محصول را تسریع خواهد کرد.

مخاطرات مالی

فشارهای مالی بر OpenAI قابل توجه است. این شرکت در حال حاضر با کسری قابل توجهی فعالیت می‌کند و میلیاردها دلار کسری سالانه دارد. پیش‌بینی‌ها نشان می‌دهد که این زیان‌ها می‌تواند تا سال 2026 سه برابر شده و به 14 میلیارد دلار برسد.

یک چرخه انتشار سریع‌تر محصول می‌تواند به طور بالقوه چشم‌انداز مالی OpenAI را در کوتاه‌مدت بهبود بخشد. با این حال، کارشناسانی مانند بروندیج سؤال می‌کنند که آیا این سرعت تسریع شده به قیمت ملاحظات ایمنی بلندمدت تمام می‌شود یا خیر. مبادله بین نوآوری سریع و توسعه مسئولانه همچنان یک نقطه بحث مرکزی است.

بررسی عمیق‌تر بحث استقرار تکراری

مفهوم “استقرار تکراری” در بحث فعلی پیرامون ایمنی هوش مصنوعی نقش اساسی دارد. طرفداران استدلال می‌کنند که این امر امکان آزمایش و یادگیری در دنیای واقعی را فراهم می‌کند و توسعه‌دهندگان را قادر می‌سازد تا مشکلات بالقوه را در حین بروز شناسایی و برطرف کنند. این رویکرد با یک استراتژی محتاطانه‌تر از آزمایش و تجزیه و تحلیل گسترده قبل از استقرار در تضاد است.

با این حال، منتقدان استقرار تکراری نگرانی‌هایی را در مورد احتمال پیامدهای پیش‌بینی‌نشده مطرح می‌کنند. آنها استدلال می‌کنند که انتشار سیستم‌های هوش مصنوعی در محیط واقعی قبل از اینکه به طور کامل درک شوند، می‌تواند منجر به نتایج ناخواسته و بالقوه مضر شود. چالش در ایجاد تعادل بین مزایای یادگیری در دنیای واقعی و خطرات مرتبط با استقرار فناوری‌های بالقوه غیرقابل پیش‌بینی نهفته است.

نقش شفافیت و صراحت

یکی دیگر از جنبه‌های کلیدی این بحث حول شفافیت و صراحت می‌چرخد. برخی استدلال می‌کنند که شفافیت بیشتر در مورد توسعه و استقرار هوش مصنوعی برای ایجاد اعتماد عمومی و تضمین پاسخگویی ضروری است. این شامل به اشتراک گذاری اطلاعات در مورد خطرات و محدودیت‌های بالقوه سیستم‌های هوش مصنوعی است.

با این حال، دیگران ادعا می‌کنند که صراحت بیش از حد می‌تواند توسط عوامل مخرب مورد سوء استفاده قرار گیرد و به طور بالقوه منجر به سوء استفاده از فناوری‌های هوش مصنوعی شود. یافتن تعادل مناسب بین شفافیت و امنیت همچنان یک چالش پیچیده است.

نیاز به چارچوب‌های حاکمیتی قوی

با پیشرفته‌تر شدن سیستم‌های هوش مصنوعی و ادغام آنها در جنبه‌های مختلف جامعه، نیاز به چارچوب‌های حاکمیتی قوی بیش از پیش حیاتی می‌شود. این چارچوب‌ها باید به مسائلی مانند ایمنی، پاسخگویی، شفافیت و ملاحظات اخلاقی بپردازند.

توسعه مکانیسم‌های حاکمیتی مؤثر مستلزم همکاری بین محققان، سیاست‌گذاران، ذینفعان صنعت و عموم مردم است. هدف ایجاد چارچوبی است که نوآوری را تقویت کند و در عین حال خطرات بالقوه را کاهش دهد و تضمین کند که هوش مصنوعی به نفع کل جامعه است.

پیامدهای گسترده‌تر برای آینده هوش مصنوعی

بحث پیرامون رویکرد OpenAI به ایمنی هوش مصنوعی منعکس کننده نگرانی‌های گسترده‌تری در مورد آینده توسعه هوش مصنوعی است. با ادامه پیشرفت سیستم‌های هوش مصنوعی با سرعتی بی‌سابقه، سؤالات مربوط به تأثیر بالقوه آنها بر جامعه به طور فزاینده‌ای فوری می‌شود.

چالش در مهار پتانسیل دگرگون‌کننده هوش مصنوعی و در عین حال کاهش خطرات مرتبط با توسعه و استقرار آن نهفته است. این امر مستلزم یک رویکرد چند وجهی است که شامل تحقیقات فنی، توسعه سیاست، ملاحظات اخلاقی و مشارکت عمومی است. آینده هوش مصنوعی به انتخاب‌هایی که امروز انجام می‌دهیم بستگی دارد.

بحث جاری به عنوان یادآوری اهمیت بررسی انتقادی و گفتگوی آزاد در زمینه هوش مصنوعی عمل می‌کند. با ادامه تکامل فناوری‌های هوش مصنوعی، داشتن گفتگوهای مداوم در مورد تأثیرات بالقوه آنها و اطمینان از اینکه توسعه آنها با ارزش‌های انسانی و رفاه اجتماعی همسو است، بسیار مهم است.