وعدههای شکسته و تعهدات برآوردهنشده
عدم ارائه گزارش تحقیقات ایمنی در کنار انتشار Gemini 2.5 Pro، به عنوان نقض تعهدات قبلی تلقی میشود. در ژوئیه 2023، گوگل در جلسهای در کاخ سفید که توسط دولت بایدن برگزار شد شرکت کرد و به سایر شرکتهای برجسته هوش مصنوعی در امضای یک سری تعهدات پیوست. یک تعهد کلیدی انتشار گزارشهایی برای همه نسخههای مدل عمومی اصلی بود که از آخرین مدل هوش مصنوعی برتر در آن زمان فراتر میرفت. با توجه به پیشرفتهایش، Gemini 2.5 Pro تقریباً به طور قطع تحت محدوده این تعهدات کاخ سفید قرار میگیرد.
در آن زمان، گوگل موافقت کرد که این گزارشها باید شامل موارد زیر باشد:
- ارزیابیهای ایمنی انجام شده، از جمله ارزیابی قابلیتهای خطرناک.
- محدودیتهای عملکرد قابل توجهی که میتواند بر موارد استفاده مناسب تأثیر بگذارد.
- بحث در مورد اثرات مدل بر خطرات اجتماعی مانند انصاف و تعصب.
- نتایج آزمایشهای خصمانه برای ارزیابی تناسب مدل برای استقرار.
به دنبال نشست G7 در هیروشیما، ژاپن، در اکتبر 2023، گوگل و سایر شرکتها متعهد شدند که به یک کد داوطلبانه برای توسعه هوش مصنوعی پیشرفته پایبند باشند. این کد G7 بر اهمیت گزارش عمومی قابلیتها، محدودیتها و کاربردهای مناسب و نامناسب سیستمهای هوش مصنوعی پیشرفته تأکید کرد. هدف افزایش شفافیت و پاسخگویی در زمینه هوش مصنوعی بود.
در ماه مه 2024، در اجلاس بینالمللی ایمنی هوش مصنوعی که در سئول، کره جنوبی برگزار شد، گوگل تعهدات خود را تکرار کرد. این شرکت قول داد که قابلیتها، محدودیتها، موارد استفاده مناسب و نامناسب مدل را به طور عمومی فاش کند و شفافیت را در مورد ارزیابیهای ریسک و نتایج آن ارائه دهد.
پاسخ گوگل و شفافیت تاخیری
در پاسخ به سوالات در مورد گزارش ایمنی گمشده، سخنگوی Google DeepMind، بخشی که مسئول توسعه مدلهای Gemini است، اظهار داشت که آخرین Gemini قبل از انتشار تحت آزمایش قرار گرفته است. این شامل ارزیابیهای توسعه داخلی و ارزیابیهای اطمینان انجام شده قبل از انتشار مدل بود. سخنگو همچنین اشاره کرد که گزارشی با اطلاعات ایمنی اضافی و کارتهای مدل ‘در آینده’ منتشر خواهد شد. با این حال، با وجود اینکه بیانیه اولیه در 2 آوریل صادر شد، تاکنون هیچ کارت مدلی منتشر نشده است.
روند گستردهتر غفلت از گزارشدهی ایمنی
گوگل تنها شرکتی نیست که با انتقاد در مورد تعهد خود به ایمنی هوش مصنوعی مواجه است. در اوایل سال جاری، OpenAI نیز به دلیل عدم انتشار به موقع کارت مدل برای مدل Deep Research خود با انتقاد مواجه شد. در عوض، آنها چند هفته پس از انتشار اولیه پروژه، کارت سیستم را منتشر کردند. به طور مشابه، گزارش ایمنی اخیر متا برای Llama 4 به دلیل مختصر بودن بیش از حد و کمبود جزئیات مورد انتقاد قرار گرفته است.
این موارد یک روند نگرانکننده را در صنعت هوش مصنوعی برجسته میکند، جایی که برخی از آزمایشگاههای بزرگ گزارشدهی ایمنی را مطابق با نسخههای مدل خود در اولویت قرار نمیدهند. این امر به ویژه با توجه به تعهدات داوطلبانهای که این شرکتها به دولت ایالات متحده و جامعه جهانی برای تهیه چنین گزارشهایی دادهاند، نگرانکننده است. این تعهدات در ابتدا در سال 2023 به دولت بایدن داده شد و متعاقباً از طریق تعهد به رعایت کد رفتار هوش مصنوعی که توسط کشورهای G7 در اجلاس هوش مصنوعی خود در هیروشیما به تصویب رسید، تقویت شد.
کوین بنکستون، مشاور در زمینه حکمرانی هوش مصنوعی در مرکز دموکراسی و فناوری، ناامیدی خود را ابراز کرد و اظهار داشت که این شکستها اعتبار شرکتهای درگیر را تضعیف میکند و سوالاتی را در مورد تعهد آنها به توسعه مسئولانه هوش مصنوعی ایجاد میکند.
سوالات بیپاسخ و ارزیابی خارجی
بیانیه سخنگوی گوگل همچنین به سوالات خاص در مورد اینکه آیا Gemini 2.5 Pro برای ارزیابی خارجی توسط موسسه امنیت هوش مصنوعی بریتانیا یا موسسه ایمنی هوش مصنوعی ایالات متحده ارسال شده است یا خیر، پاسخ نداد. پیش از این، گوگل نسلهای قبلی مدلهای Gemini خود را برای ارزیابی به موسسه ایمنی هوش مصنوعی بریتانیا ارائه کرده بود.
در اجلاس ایمنی سئول، گوگل ‘تعهدات ایمنی هوش مصنوعی فرانتیر’ را امضا کرد که شامل تعهد به ارائه شفافیت عمومی در مورد اجرای ارزیابیهای ایمنی بود. تنها استثناها مواردی بودند که انجام این کار خطر را افزایش میدهد یا اطلاعات تجاری حساسی را به میزانی که با منفعت اجتماعی متناسب نیست، فاش میکند. این تعهد همچنین بیان داشت که اطلاعات دقیقتری که نمیتوان به طور عمومی به اشتراک گذاشت، همچنان باید با دولتهای کشورهایی که شرکتها در آن مستقر هستند، که در مورد گوگل ایالات متحده خواهد بود، به اشتراک گذاشته شود.
این شرکتها همچنین متعهد شدند که توضیح دهند چگونه بازیگران خارجی، مانند دولتها، جامعه مدنی، دانشگاهیان و عموم مردم، در فرآیند ارزیابی خطرات مدلهای هوش مصنوعی خود مشارکت دارند. عدم پاسخگویی گوگل به سوالات مستقیم در مورد اینکه آیا Gemini 2.5 Pro را به ارزیابان دولتی ایالات متحده یا بریتانیا ارائه کرده است، به طور بالقوه این تعهد را نیز نقض میکند.
اولویتبندی استقرار بر شفافیت
عدم وجود گزارش ایمنی این نگرانی را ایجاد کرده است که گوگل ممکن است استقرار سریع را بر شفافیت و ارزیابیهای ایمنی کامل اولویت دهد. ساندرا واچتر، استاد و محقق ارشد در موسسه اینترنت آکسفورد، بر اهمیت شفافیت در تحقیقات و نوآوری مسئولانه تأکید کرد. او با اشاره به سایر صنایع، گفت: ‘اگر این یک ماشین یا یک هواپیما بود، نمیگفتیم: بیایید این را هر چه سریعتر به بازار عرضه کنیم و بعداً به جنبههای ایمنی آن رسیدگی خواهیم کرد.’ واچتر ابراز نگرانی کرد که یک نگرش غالب در زمینه هوش مصنوعی مولد وجود دارد که ‘این را در اینجا قرار دهید و نگران باشید، تحقیق کنید و مسائل مربوط به آن را بعداً برطرف کنید.’
تغییرات سیاسی و فشارهای رقابتی
تغییرات سیاسی اخیر، همراه با رقابت شدید بین شرکتهای بزرگ فناوری، ممکن است به تغییر از تعهدات ایمنی قبلی کمک کند، زیرا شرکتها در تلاش هستند تا مدلهای هوش مصنوعی را مستقر کنند. واچتر خاطرنشان کرد که ‘نقطه فشار برای این شرکتها برای سریعتر بودن، سریعتر بودن، اول بودن، بهترین بودن، مسلط بودن، بیشتر از قبل است’ و افزود که استانداردهای ایمنی در سراسر صنعت در حال کاهش است.
این استانداردهای لغزنده میتواند ناشی از نگرانی فزاینده در بین کشورهای فناوری و برخی دولتها باشد که رویههای ایمنی هوش مصنوعی مانع نوآوری میشوند. در ایالات متحده، دولت ترامپ نشان داده است که قصد دارد رویکردی کمتر سختگیرانه در قبال مقررات هوش مصنوعی در مقایسه با دولت بایدن اتخاذ کند. دولت جدید قبلاً یک دستور اجرایی دوران بایدن در مورد هوش مصنوعی را لغو کرده است و روابط نزدیکتری با رهبران فناوری ایجاد کرده است. در اجلاس اخیر هوش مصنوعی در پاریس، معاون رئیس جمهور ایالات متحده، جی دی ونس، اظهار داشت که ‘سیاستهای هوش مصنوعی طرفدار رشد’ باید بر ایمنی اولویت داده شود و هوش مصنوعی ‘فرصتی است که دولت ترامپ آن را هدر نخواهد داد.’
در همان اجلاس، هم بریتانیا و هم ایالات متحده از امضای توافقنامهای بینالمللی در مورد هوش مصنوعی که رویکردی ‘باز’، ‘فراگیر’ و ‘اخلاقی’ را برای توسعه این فناوری ترویج میکرد، خودداری کردند.
نیاز به الزامات شفافیت واضح
بنکستون تأکید کرد که ‘اگر نتوانیم روی این شرکتها حساب کنیم که حتی اساسیترین تعهدات ایمنی و شفافیت خود را هنگام انتشار مدلهای جدید برآورده کنند - تعهداتی که خودشان داوطلبانه دادهاند - پس آنها به وضوح مدلها را خیلی سریع در تلاش رقابتی خود برای تسلط بر این زمینه منتشر میکنند.’ او افزود که از آنجایی که توسعهدهندگان هوش مصنوعی همچنان در این تعهدات کوتاهی میکنند، این وظیفه بر عهده قانونگذاران خواهد بود که الزامات شفافیت واضحی را توسعه داده و اجرا کنند که شرکتها نتوانند از آن شانه خالی کنند.
پیامدهای گستردهتر برای حکمرانی هوش مصنوعی
بحث و جدال پیرامون Gemini 2.5 Pro گوگل و گزارش ایمنی گمشده، بر نیاز مبرم به چارچوبهای حکمرانی قوی هوش مصنوعی تأکید میکند. این چارچوبها باید به مسائل کلیدی مانند:
- شفافیت: اطمینان از اینکه توسعهدهندگان هوش مصنوعی در مورد قابلیتها، محدودیتها و خطرات احتمالی مدلهای خود شفاف هستند.
- پاسخگویی: ایجاد خطوط پاسخگویی مشخص برای توسعه و استقرار سیستمهای هوش مصنوعی.
- ایمنی: اجرای آزمایشهای ایمنی دقیق و رویههای ارزیابی برای به حداقل رساندن خطر آسیب.
- ملاحظات اخلاقی: ادغام اصول اخلاقی در طراحی و توسعه سیستمهای هوش مصنوعی.
- مشارکت عمومی: تعامل با عموم مردم برای ارتقای درک گستردهتر از هوش مصنوعی و پیامدهای آن.
- همکاری بینالمللی: همکاری بینالمللی برای توسعه استانداردهای مشترک و بهترین شیوهها برای حکمرانی هوش مصنوعی.
فقدان شفافیت پیرامون Gemini 2.5 Pro، پیامدهای بالقوه غفلت از این جنبههای حیاتی حکمرانی هوش مصنوعی را برجسته میکند. بدون شفافیت و پاسخگویی کافی، ارزیابی تأثیر واقعی سیستمهای هوش مصنوعی و اطمینان از اینکه آنها به شیوهای مسئولانه و اخلاقی توسعه و مستقر میشوند، دشوار میشود.
حرکت رو به جلو: فراخوانی برای مسئولیتپذیری بیشتر
صنعت هوش مصنوعی در یک نقطه عطف حیاتی قرار دارد. از آنجایی که فناوریهای هوش مصنوعی به طور فزایندهای قدرتمند و فراگیر میشوند، ضروری است که توسعهدهندگان ایمنی، شفافیت و ملاحظات اخلاقی را در اولویت قرار دهند. بحث و جدال پیرامون Gemini 2.5 Pro یادآوری است که تعهدات داوطلبانه همیشه کافی نیستند. دولتها و نهادهای نظارتی باید نقش فعالتری در ایجاد استانداردهای واضح و اجرای انطباق ایفا کنند.
علاوه بر این، برای توسعهدهندگان هوش مصنوعی بسیار مهم است که با عموم مردم تعامل داشته باشند و درک گستردهتری از هوش مصنوعی و پیامدهای آن ایجاد کنند. این شامل شفافیت در مورد محدودیتها و خطرات احتمالی سیستمهای هوش مصنوعی و همچنین اقداماتی است که برای کاهش این خطرات انجام میشود. با همکاری، صنعت هوش مصنوعی، دولتها و عموم مردم میتوانند اطمینان حاصل کنند که فناوریهای هوش مصنوعی به گونهای توسعه و مستقر میشوند که به نفع کل جامعه باشد.