Gemini 2.5 Pro: گزارش ایمنی گم‌شده

وعده‌های شکسته و تعهدات برآورده‌نشده

عدم ارائه گزارش تحقیقات ایمنی در کنار انتشار Gemini 2.5 Pro، به عنوان نقض تعهدات قبلی تلقی می‌شود. در ژوئیه 2023، گوگل در جلسه‌ای در کاخ سفید که توسط دولت بایدن برگزار شد شرکت کرد و به سایر شرکت‌های برجسته هوش مصنوعی در امضای یک سری تعهدات پیوست. یک تعهد کلیدی انتشار گزارش‌هایی برای همه نسخه‌های مدل عمومی اصلی بود که از آخرین مدل هوش مصنوعی برتر در آن زمان فراتر می‌رفت. با توجه به پیشرفت‌هایش، Gemini 2.5 Pro تقریباً به طور قطع تحت محدوده این تعهدات کاخ سفید قرار می‌گیرد.

در آن زمان، گوگل موافقت کرد که این گزارش‌ها باید شامل موارد زیر باشد:

  • ارزیابی‌های ایمنی انجام شده، از جمله ارزیابی قابلیت‌های خطرناک.
  • محدودیت‌های عملکرد قابل توجهی که می‌تواند بر موارد استفاده مناسب تأثیر بگذارد.
  • بحث در مورد اثرات مدل بر خطرات اجتماعی مانند انصاف و تعصب.
  • نتایج آزمایش‌های خصمانه برای ارزیابی تناسب مدل برای استقرار.

به دنبال نشست G7 در هیروشیما، ژاپن، در اکتبر 2023، گوگل و سایر شرکت‌ها متعهد شدند که به یک کد داوطلبانه برای توسعه هوش مصنوعی پیشرفته پایبند باشند. این کد G7 بر اهمیت گزارش عمومی قابلیت‌ها، محدودیت‌ها و کاربردهای مناسب و نامناسب سیستم‌های هوش مصنوعی پیشرفته تأکید کرد. هدف افزایش شفافیت و پاسخگویی در زمینه هوش مصنوعی بود.

در ماه مه 2024، در اجلاس بین‌المللی ایمنی هوش مصنوعی که در سئول، کره جنوبی برگزار شد، گوگل تعهدات خود را تکرار کرد. این شرکت قول داد که قابلیت‌ها، محدودیت‌ها، موارد استفاده مناسب و نامناسب مدل را به طور عمومی فاش کند و شفافیت را در مورد ارزیابی‌های ریسک و نتایج آن ارائه دهد.

پاسخ گوگل و شفافیت تاخیری

در پاسخ به سوالات در مورد گزارش ایمنی گمشده، سخنگوی Google DeepMind، بخشی که مسئول توسعه مدل‌های Gemini است، اظهار داشت که آخرین Gemini قبل از انتشار تحت آزمایش قرار گرفته است. این شامل ارزیابی‌های توسعه داخلی و ارزیابی‌های اطمینان انجام شده قبل از انتشار مدل بود. سخنگو همچنین اشاره کرد که گزارشی با اطلاعات ایمنی اضافی و کارت‌های مدل ‘در آینده’ منتشر خواهد شد. با این حال، با وجود اینکه بیانیه اولیه در 2 آوریل صادر شد، تاکنون هیچ کارت مدلی منتشر نشده است.

روند گسترده‌تر غفلت از گزارش‌دهی ایمنی

گوگل تنها شرکتی نیست که با انتقاد در مورد تعهد خود به ایمنی هوش مصنوعی مواجه است. در اوایل سال جاری، OpenAI نیز به دلیل عدم انتشار به موقع کارت مدل برای مدل Deep Research خود با انتقاد مواجه شد. در عوض، آنها چند هفته پس از انتشار اولیه پروژه، کارت سیستم را منتشر کردند. به طور مشابه، گزارش ایمنی اخیر متا برای Llama 4 به دلیل مختصر بودن بیش از حد و کمبود جزئیات مورد انتقاد قرار گرفته است.

این موارد یک روند نگران‌کننده را در صنعت هوش مصنوعی برجسته می‌کند، جایی که برخی از آزمایشگاه‌های بزرگ گزارش‌دهی ایمنی را مطابق با نسخه‌های مدل خود در اولویت قرار نمی‌دهند. این امر به ویژه با توجه به تعهدات داوطلبانه‌ای که این شرکت‌ها به دولت ایالات متحده و جامعه جهانی برای تهیه چنین گزارش‌هایی داده‌اند، نگران‌کننده است. این تعهدات در ابتدا در سال 2023 به دولت بایدن داده شد و متعاقباً از طریق تعهد به رعایت کد رفتار هوش مصنوعی که توسط کشورهای G7 در اجلاس هوش مصنوعی خود در هیروشیما به تصویب رسید، تقویت شد.

کوین بنکستون، مشاور در زمینه حکمرانی هوش مصنوعی در مرکز دموکراسی و فناوری، ناامیدی خود را ابراز کرد و اظهار داشت که این شکست‌ها اعتبار شرکت‌های درگیر را تضعیف می‌کند و سوالاتی را در مورد تعهد آنها به توسعه مسئولانه هوش مصنوعی ایجاد می‌کند.

سوالات بی‌پاسخ و ارزیابی خارجی

بیانیه سخنگوی گوگل همچنین به سوالات خاص در مورد اینکه آیا Gemini 2.5 Pro برای ارزیابی خارجی توسط موسسه امنیت هوش مصنوعی بریتانیا یا موسسه ایمنی هوش مصنوعی ایالات متحده ارسال شده است یا خیر، پاسخ نداد. پیش از این، گوگل نسل‌های قبلی مدل‌های Gemini خود را برای ارزیابی به موسسه ایمنی هوش مصنوعی بریتانیا ارائه کرده بود.

در اجلاس ایمنی سئول، گوگل ‘تعهدات ایمنی هوش مصنوعی فرانتیر’ را امضا کرد که شامل تعهد به ارائه شفافیت عمومی در مورد اجرای ارزیابی‌های ایمنی بود. تنها استثناها مواردی بودند که انجام این کار خطر را افزایش می‌دهد یا اطلاعات تجاری حساسی را به میزانی که با منفعت اجتماعی متناسب نیست، فاش می‌کند. این تعهد همچنین بیان داشت که اطلاعات دقیق‌تری که نمی‌توان به طور عمومی به اشتراک گذاشت، همچنان باید با دولت‌های کشورهایی که شرکت‌ها در آن مستقر هستند، که در مورد گوگل ایالات متحده خواهد بود، به اشتراک گذاشته شود.

این شرکت‌ها همچنین متعهد شدند که توضیح دهند چگونه بازیگران خارجی، مانند دولت‌ها، جامعه مدنی، دانشگاهیان و عموم مردم، در فرآیند ارزیابی خطرات مدل‌های هوش مصنوعی خود مشارکت دارند. عدم پاسخگویی گوگل به سوالات مستقیم در مورد اینکه آیا Gemini 2.5 Pro را به ارزیابان دولتی ایالات متحده یا بریتانیا ارائه کرده است، به طور بالقوه این تعهد را نیز نقض می‌کند.

اولویت‌بندی استقرار بر شفافیت

عدم وجود گزارش ایمنی این نگرانی را ایجاد کرده است که گوگل ممکن است استقرار سریع را بر شفافیت و ارزیابی‌های ایمنی کامل اولویت دهد. ساندرا واچتر، استاد و محقق ارشد در موسسه اینترنت آکسفورد، بر اهمیت شفافیت در تحقیقات و نوآوری مسئولانه تأکید کرد. او با اشاره به سایر صنایع، گفت: ‘اگر این یک ماشین یا یک هواپیما بود، نمی‌گفتیم: بیایید این را هر چه سریع‌تر به بازار عرضه کنیم و بعداً به جنبه‌های ایمنی آن رسیدگی خواهیم کرد.’ واچتر ابراز نگرانی کرد که یک نگرش غالب در زمینه هوش مصنوعی مولد وجود دارد که ‘این را در اینجا قرار دهید و نگران باشید، تحقیق کنید و مسائل مربوط به آن را بعداً برطرف کنید.’

تغییرات سیاسی و فشارهای رقابتی

تغییرات سیاسی اخیر، همراه با رقابت شدید بین شرکت‌های بزرگ فناوری، ممکن است به تغییر از تعهدات ایمنی قبلی کمک کند، زیرا شرکت‌ها در تلاش هستند تا مدل‌های هوش مصنوعی را مستقر کنند. واچتر خاطرنشان کرد که ‘نقطه فشار برای این شرکت‌ها برای سریع‌تر بودن، سریع‌تر بودن، اول بودن، بهترین بودن، مسلط بودن، بیشتر از قبل است’ و افزود که استانداردهای ایمنی در سراسر صنعت در حال کاهش است.

این استانداردهای لغزنده می‌تواند ناشی از نگرانی فزاینده در بین کشورهای فناوری و برخی دولت‌ها باشد که رویه‌های ایمنی هوش مصنوعی مانع نوآوری می‌شوند. در ایالات متحده، دولت ترامپ نشان داده است که قصد دارد رویکردی کم‌تر سختگیرانه در قبال مقررات هوش مصنوعی در مقایسه با دولت بایدن اتخاذ کند. دولت جدید قبلاً یک دستور اجرایی دوران بایدن در مورد هوش مصنوعی را لغو کرده است و روابط نزدیک‌تری با رهبران فناوری ایجاد کرده است. در اجلاس اخیر هوش مصنوعی در پاریس، معاون رئیس جمهور ایالات متحده، جی دی ونس، اظهار داشت که ‘سیاست‌های هوش مصنوعی طرفدار رشد’ باید بر ایمنی اولویت داده شود و هوش مصنوعی ‘فرصتی است که دولت ترامپ آن را هدر نخواهد داد.’

در همان اجلاس، هم بریتانیا و هم ایالات متحده از امضای توافق‌نامه‌ای بین‌المللی در مورد هوش مصنوعی که رویکردی ‘باز’، ‘فراگیر’ و ‘اخلاقی’ را برای توسعه این فناوری ترویج می‌کرد، خودداری کردند.

نیاز به الزامات شفافیت واضح

بنکستون تأکید کرد که ‘اگر نتوانیم روی این شرکت‌ها حساب کنیم که حتی اساسی‌ترین تعهدات ایمنی و شفافیت خود را هنگام انتشار مدل‌های جدید برآورده کنند - تعهداتی که خودشان داوطلبانه داده‌اند - پس آنها به وضوح مدل‌ها را خیلی سریع در تلاش رقابتی خود برای تسلط بر این زمینه منتشر می‌کنند.’ او افزود که از آنجایی که توسعه‌دهندگان هوش مصنوعی همچنان در این تعهدات کوتاهی می‌کنند، این وظیفه بر عهده قانون‌گذاران خواهد بود که الزامات شفافیت واضحی را توسعه داده و اجرا کنند که شرکت‌ها نتوانند از آن شانه خالی کنند.

پیامدهای گسترده‌تر برای حکمرانی هوش مصنوعی

بحث و جدال پیرامون Gemini 2.5 Pro گوگل و گزارش ایمنی گمشده، بر نیاز مبرم به چارچوب‌های حکمرانی قوی هوش مصنوعی تأکید می‌کند. این چارچوب‌ها باید به مسائل کلیدی مانند:

  • شفافیت: اطمینان از اینکه توسعه‌دهندگان هوش مصنوعی در مورد قابلیت‌ها، محدودیت‌ها و خطرات احتمالی مدل‌های خود شفاف هستند.
  • پاسخگویی: ایجاد خطوط پاسخگویی مشخص برای توسعه و استقرار سیستم‌های هوش مصنوعی.
  • ایمنی: اجرای آزمایش‌های ایمنی دقیق و رویه‌های ارزیابی برای به حداقل رساندن خطر آسیب.
  • ملاحظات اخلاقی: ادغام اصول اخلاقی در طراحی و توسعه سیستم‌های هوش مصنوعی.
  • مشارکت عمومی: تعامل با عموم مردم برای ارتقای درک گسترده‌تر از هوش مصنوعی و پیامدهای آن.
  • همکاری بین‌المللی: همکاری بین‌المللی برای توسعه استانداردهای مشترک و بهترین شیوه‌ها برای حکمرانی هوش مصنوعی.

فقدان شفافیت پیرامون Gemini 2.5 Pro، پیامدهای بالقوه غفلت از این جنبه‌های حیاتی حکمرانی هوش مصنوعی را برجسته می‌کند. بدون شفافیت و پاسخگویی کافی، ارزیابی تأثیر واقعی سیستم‌های هوش مصنوعی و اطمینان از اینکه آنها به شیوه‌ای مسئولانه و اخلاقی توسعه و مستقر می‌شوند، دشوار می‌شود.

حرکت رو به جلو: فراخوانی برای مسئولیت‌پذیری بیشتر

صنعت هوش مصنوعی در یک نقطه عطف حیاتی قرار دارد. از آنجایی که فناوری‌های هوش مصنوعی به طور فزاینده‌ای قدرتمند و فراگیر می‌شوند، ضروری است که توسعه‌دهندگان ایمنی، شفافیت و ملاحظات اخلاقی را در اولویت قرار دهند. بحث و جدال پیرامون Gemini 2.5 Pro یادآوری است که تعهدات داوطلبانه همیشه کافی نیستند. دولت‌ها و نهادهای نظارتی باید نقش فعال‌تری در ایجاد استانداردهای واضح و اجرای انطباق ایفا کنند.

علاوه بر این، برای توسعه‌دهندگان هوش مصنوعی بسیار مهم است که با عموم مردم تعامل داشته باشند و درک گسترده‌تری از هوش مصنوعی و پیامدهای آن ایجاد کنند. این شامل شفافیت در مورد محدودیت‌ها و خطرات احتمالی سیستم‌های هوش مصنوعی و همچنین اقداماتی است که برای کاهش این خطرات انجام می‌شود. با همکاری، صنعت هوش مصنوعی، دولت‌ها و عموم مردم می‌توانند اطمینان حاصل کنند که فناوری‌های هوش مصنوعی به گونه‌ای توسعه و مستقر می‌شوند که به نفع کل جامعه باشد.