سرزنش عمومی در رسانه های اجتماعی
روز چهارشنبه، مایلز بروندیج، پژوهشگر سابق و برجسته سیاست در OpenAI، علناً از این شرکت انتقاد کرد. او OpenAI را به “بازنویسی تاریخ” رویکرد خود در قبال استقرار سیستم های هوش مصنوعی بالقوه خطرناک متهم کرد. بروندیج، که پیشتر نقش مهمی در شکلدهی چارچوب سیاستگذاری OpenAI داشت، نگرانیهای خود را از طریق رسانههای اجتماعی ابراز کرد و بحثی را در مورد موضع در حال تحول این شرکت در مورد ایمنی هوش مصنوعی برانگیخت.
فلسفه 'استقرار تکراری' OpenAI
انتقاد بروندیج در پی انتشار سندی توسط OpenAI در اوایل هفته صورت میگیرد. این سند جزئیات فلسفه فعلی این شرکت در مورد ایمنی و همسویی هوش مصنوعی را شرح میدهد. همسویی، در این زمینه، به فرآیند طراحی سیستمهای هوش مصنوعی اشاره دارد که به روشهای قابل پیشبینی، مطلوب و قابل توضیح رفتار میکنند.
در این سند، OpenAI توسعه هوش عمومی مصنوعی (AGI) را به عنوان یک “مسیر پیوسته” توصیف کرد. AGI به طور کلی به عنوان سیستمهای هوش مصنوعی تعریف میشود که قادر به انجام هر کار فکریای هستند که یک انسان میتواند انجام دهد. OpenAI اظهار داشت که این مسیر پیوسته مستلزم “استقرار و یادگیری مکرر” از فناوریهای هوش مصنوعی است. این امر یک رویکرد تدریجی و گام به گام را پیشنهاد میکند که در آن درسهای آموخته شده از استقرارهای قبلی، موارد بعدی را آگاه میسازد.
جنجال GPT-2: یک نقطه اختلاف
با این حال، بروندیج روایت OpenAI را به چالش میکشد، به ویژه در مورد انتشار GPT-2. او ادعا میکند که GPT-2، در زمان انتشار، واقعاً مستلزم احتیاط قابل توجهی بود. این ادعا مستقیماً با این مفهوم که استراتژی استقرار تکراری فعلی نشان دهنده انحراف از شیوههای گذشته است، در تضاد است.
بروندیج استدلال میکند که رویکرد محتاطانه OpenAI در قبال انتشار GPT-2، در واقع، کاملاً با استراتژی استقرار تکراری امروزی آن سازگار بود. او فرض میکند که چارچوببندی فعلی این شرکت از تاریخچه خود به دنبال کماهمیت جلوه دادن خطرات مرتبط با مدلهای قبلی است.
نگرانیها در مورد تغییر بار اثبات
یک عنصر اصلی انتقاد بروندیج بر چیزی متمرکز است که او آن را تغییری در بار اثبات در مورد نگرانیهای ایمنی هوش مصنوعی میداند. او ابراز نگرانی میکند که سند OpenAI قصد دارد چارچوبی را ایجاد کند که در آن نگرانیها در مورد خطرات بالقوه به عنوان “هشداردهنده” برچسبگذاری شوند.
به گفته بروندیج، این چارچوب مستلزم “شواهد قاطع از خطرات قریب الوقوع” برای توجیه هر اقدامی برای کاهش این خطرات است. او استدلال میکند که چنین ذهنیتی هنگام برخورد با سیستمهای پیشرفته هوش مصنوعی “بسیار خطرناک” است، جایی که پیامدهای پیشبینینشده میتواند پیامدهای قابل توجهی داشته باشد.
اتهامات اولویتبندی 'محصولات درخشان'
OpenAI در گذشته با اتهاماتی مبنی بر اولویتبندی توسعه و انتشار “محصولات درخشان” نسبت به ملاحظات ایمنی مواجه شده است. منتقدان پیشنهاد کردهاند که این شرکت، در مواقعی، برای به دست آوردن مزیت رقابتی در چشمانداز به سرعت در حال تحول هوش مصنوعی، عرضههای محصول را تسریع کرده است.
انحلال تیم آمادگی AGI و جداییها
انحلال تیم آمادگی AGI در سال گذشته، نگرانیها در مورد تعهد OpenAI به ایمنی را بیشتر کرد. این تیم به طور خاص وظیفه ارزیابی و آمادهسازی برای تأثیرات بالقوه اجتماعی AGI را بر عهده داشت.
علاوه بر این، تعدادی از محققان ایمنی و سیاست هوش مصنوعی از OpenAI جدا شدهاند، که بسیاری از آنها متعاقباً به شرکتهای رقیب پیوستهاند. این جداییها سؤالاتی را در مورد فرهنگ داخلی و اولویتها در OpenAI ایجاد کرده است.
افزایش فشارهای رقابتی
چشم انداز رقابتی در زمینه هوش مصنوعی در زمان های اخیر به طور قابل توجهی تشدید شده است. به عنوان مثال، آزمایشگاه هوش مصنوعی چینی DeepSeek با مدل R1 خود که به طور آشکار در دسترس است، توجه جهانی را به خود جلب کرد. این مدل عملکردی قابل مقایسه با مدل o1 “استدلال” OpenAI را در چندین معیار کلیدی نشان داد.
سام آلتمن، مدیر عامل OpenAI، علناً اذعان کرده است که پیشرفتهای DeepSeek برتری تکنولوژیکی OpenAI را کاهش داده است. آلتمن همچنین اشاره کرده است که OpenAI برای بهبود موقعیت رقابتی خود، برخی از عرضههای محصول را تسریع خواهد کرد.
مخاطرات مالی
فشارهای مالی بر OpenAI قابل توجه است. این شرکت در حال حاضر با کسری قابل توجهی فعالیت میکند و میلیاردها دلار کسری سالانه دارد. پیشبینیها نشان میدهد که این زیانها میتواند تا سال 2026 سه برابر شده و به 14 میلیارد دلار برسد.
یک چرخه انتشار سریعتر محصول میتواند به طور بالقوه چشمانداز مالی OpenAI را در کوتاهمدت بهبود بخشد. با این حال، کارشناسانی مانند بروندیج سؤال میکنند که آیا این سرعت تسریع شده به قیمت ملاحظات ایمنی بلندمدت تمام میشود یا خیر. مبادله بین نوآوری سریع و توسعه مسئولانه همچنان یک نقطه بحث مرکزی است.
بررسی عمیقتر بحث استقرار تکراری
مفهوم “استقرار تکراری” در بحث فعلی پیرامون ایمنی هوش مصنوعی نقش اساسی دارد. طرفداران استدلال میکنند که این امر امکان آزمایش و یادگیری در دنیای واقعی را فراهم میکند و توسعهدهندگان را قادر میسازد تا مشکلات بالقوه را در حین بروز شناسایی و برطرف کنند. این رویکرد با یک استراتژی محتاطانهتر از آزمایش و تجزیه و تحلیل گسترده قبل از استقرار در تضاد است.
با این حال، منتقدان استقرار تکراری نگرانیهایی را در مورد احتمال پیامدهای پیشبینینشده مطرح میکنند. آنها استدلال میکنند که انتشار سیستمهای هوش مصنوعی در محیط واقعی قبل از اینکه به طور کامل درک شوند، میتواند منجر به نتایج ناخواسته و بالقوه مضر شود. چالش در ایجاد تعادل بین مزایای یادگیری در دنیای واقعی و خطرات مرتبط با استقرار فناوریهای بالقوه غیرقابل پیشبینی نهفته است.
نقش شفافیت و صراحت
یکی دیگر از جنبههای کلیدی این بحث حول شفافیت و صراحت میچرخد. برخی استدلال میکنند که شفافیت بیشتر در مورد توسعه و استقرار هوش مصنوعی برای ایجاد اعتماد عمومی و تضمین پاسخگویی ضروری است. این شامل به اشتراک گذاری اطلاعات در مورد خطرات و محدودیتهای بالقوه سیستمهای هوش مصنوعی است.
با این حال، دیگران ادعا میکنند که صراحت بیش از حد میتواند توسط عوامل مخرب مورد سوء استفاده قرار گیرد و به طور بالقوه منجر به سوء استفاده از فناوریهای هوش مصنوعی شود. یافتن تعادل مناسب بین شفافیت و امنیت همچنان یک چالش پیچیده است.
نیاز به چارچوبهای حاکمیتی قوی
با پیشرفتهتر شدن سیستمهای هوش مصنوعی و ادغام آنها در جنبههای مختلف جامعه، نیاز به چارچوبهای حاکمیتی قوی بیش از پیش حیاتی میشود. این چارچوبها باید به مسائلی مانند ایمنی، پاسخگویی، شفافیت و ملاحظات اخلاقی بپردازند.
توسعه مکانیسمهای حاکمیتی مؤثر مستلزم همکاری بین محققان، سیاستگذاران، ذینفعان صنعت و عموم مردم است. هدف ایجاد چارچوبی است که نوآوری را تقویت کند و در عین حال خطرات بالقوه را کاهش دهد و تضمین کند که هوش مصنوعی به نفع کل جامعه است.
پیامدهای گستردهتر برای آینده هوش مصنوعی
بحث پیرامون رویکرد OpenAI به ایمنی هوش مصنوعی منعکس کننده نگرانیهای گستردهتری در مورد آینده توسعه هوش مصنوعی است. با ادامه پیشرفت سیستمهای هوش مصنوعی با سرعتی بیسابقه، سؤالات مربوط به تأثیر بالقوه آنها بر جامعه به طور فزایندهای فوری میشود.
چالش در مهار پتانسیل دگرگونکننده هوش مصنوعی و در عین حال کاهش خطرات مرتبط با توسعه و استقرار آن نهفته است. این امر مستلزم یک رویکرد چند وجهی است که شامل تحقیقات فنی، توسعه سیاست، ملاحظات اخلاقی و مشارکت عمومی است. آینده هوش مصنوعی به انتخابهایی که امروز انجام میدهیم بستگی دارد.
بحث جاری به عنوان یادآوری اهمیت بررسی انتقادی و گفتگوی آزاد در زمینه هوش مصنوعی عمل میکند. با ادامه تکامل فناوریهای هوش مصنوعی، داشتن گفتگوهای مداوم در مورد تأثیرات بالقوه آنها و اطمینان از اینکه توسعه آنها با ارزشهای انسانی و رفاه اجتماعی همسو است، بسیار مهم است.