دنیای توسعه هوش مصنوعی به قطاری پرسرعت میماند که دائماً در حال شتاب گرفتن است و غولهای فناوری برای کسب جایگاه پیشرو با یکدیگر رقابت میکنند. در این رقابت شدید، Google، پس از آنکه به نظر میرسید بیش از دو سال پیش با ورود ناگهانی ChatGPT از OpenAI عقب مانده بود، به وضوح دنده عوض کرده و نوآوریهای هوش مصنوعی خود را با سرعتی سرسامآور به پیش میبرد. با این حال، سوالی که از گرد و غبار این پیشرفت سریع پدیدار میشود این است که آیا حفاظهای ضروری مستندات ایمنی همگام با آن پیش میروند یا خیر.
چالش Gemini: رگباری از مدلهای پیشرفته
شواهد سرعت مجدد Google فراوان است. رونمایی اواخر ماه مارس از Gemini 2.5 Pro را در نظر بگیرید. این مدل تنها یک تکرار دیگر نبود؛ بلکه قلههای جدیدی در صنعت را در چندین شاخص عملکردی حیاتی ثبت کرد، به ویژه در چالشهای پیچیده کدنویسی و وظایف استدلال ریاضی برتری داشت. این عرضه قابل توجه، رویدادی مجزا نبود. این اتفاق درست سه ماه پس از عرضه بزرگ دیگری رخ داد: Gemini 2.0 Flash. در زمان عرضه، خود Flash نمایانگر لبه پیشرفته قابلیتهای هوش مصنوعی بود که برای سرعت و کارایی بهینه شده بود.
این جدول زمانی فشرده بین عرضههای مدلهای اصلی، نشاندهنده یک تغییر استراتژیک عمدی در Google است. این شرکت دیگر به دنبال کردن راضی نیست؛ بلکه به طور تهاجمی مرزهای توسعه هوش مصنوعی را جابجا میکند. قابلیتهای به نمایش گذاشته شده توسط این مدلهای Gemini پیشرفتهای جزئی نیستند. آنها جهشهایی را در نحوه درک، استدلال و تولید خروجیهای پیچیده توسط ماشینها نشان میدهند و در حوزههای خاصی مانند برنامهنویسی و تحلیل کمی، به تقلید از فرآیندهای شناختی ظریف انسانی نزدیکتر میشوند. توالی سریع نشاندهنده یک خط لوله داخلی بسیار بهینه برای تحقیق، توسعه و استقرار است که منعکسکننده فشار عظیم برای نوآوری در چشمانداز رقابتی هوش مصنوعی است.
Tulsee Doshi، که به عنوان مدیر و رئیس محصول خط Gemini در Google فعالیت میکند، در گفتگو با TechCrunch این سرعت فزاینده را تأیید کرد. او این شتاب را بخشی از کاوش مداوم در شرکت برای تعیین مؤثرترین روشها برای معرفی این مدلهای قدرتمند جدید به جهان توصیف کرد. ایده اصلی، به گفته او، شامل یافتن تعادل بهینه برای انتشار فناوری و در عین حال جمعآوری بازخورد حیاتی کاربران برای پیشبرد اصلاحات بیشتر است.
منطق از Mountain View: جستجوی ریتم مناسب برای عرضه
به گفته Doshi، چرخه استقرار سریع ذاتاً با استراتژی توسعه تکراری مرتبط است. او با تأکید بر ماهیت پویای پیشرفت هوش مصنوعی و نیاز به تعامل در دنیای واقعی برای هدایت بهبودها، اظهار داشت: ‘ما هنوز در تلاشیم تا راه درست عرضه این مدلها را پیدا کنیم - راه درست برای دریافت بازخورد چیست’. این دیدگاه، عرضههای شتابزده را نه صرفاً واکنشی رقابتی، بلکه انتخابی روششناختی با هدف پرورش فرآیند توسعه پاسخگوتر نشان میدهد.
Doshi به طور خاص به عدم وجود مستندات دقیق برای Gemini 2.5 Pro با عملکرد بالا پرداخت و در دسترس بودن فعلی آن را به عنوان مرحله ‘آزمایشی’ توصیف کرد. منطق ارائه شده این است که این عرضههای محدود و اولیه هدف مشخصی را دنبال میکنند: قرار دادن مدل در معرض مجموعهای کنترلشده از کاربران و سناریوها، درخواست بازخورد هدفمند در مورد عملکرد و کاستیهای بالقوه آن، و سپس گنجاندن این آموختهها قبل از عرضه گستردهتر و نهاییتر ‘تولیدی’. این رویکرد، در تئوری، امکان شناسایی و اصلاح سریعتر مشکلات را نسبت به چرخه انتشار سنتیتر و کندتر فراهم میکند.
قصد اعلام شده Google، همانطور که توسط Doshi بیان شد، انتشار کارت مدل جامع حاوی جزئیات ویژگیها و ارزیابیهای ایمنی Gemini 2.5 Pro همزمان با انتقال آن از وضعیت آزمایشی به در دسترس بودن عمومی است. او تأکید کرد که آزمایشهای ایمنی داخلی دقیق، از جمله تیم قرمز متخاصم (adversarial red teaming) که برای کشف فعالانه آسیبپذیریها و مسیرهای سوء استفاده بالقوه طراحی شده است، قبلاً برای این مدل انجام شده است، حتی اگر نتایج آن هنوز به صورت عمومی مستند نشده باشد. این دقت داخلی به عنوان یک پیشنیاز ارائه میشود و سطح پایه ایمنی را حتی قبل از قرار گرفتن در معرض محدود خارجی تضمین میکند.
ارتباطات بیشتر از سوی سخنگوی Google این پیام را تقویت کرد و تأکید نمود که ایمنی همچنان یک نگرانی اصلی برای سازمان است. سخنگو توضیح داد که این شرکت متعهد به بهبود شیوههای مستندسازی خود برای مدلهای هوش مصنوعی در آینده است و به طور خاص قصد دارد اطلاعات بیشتری در مورد Gemini 2.0 Flash منتشر کند. این امر به ویژه قابل توجه است زیرا، برخلاف 2.5 Pro ‘آزمایشی’، Gemini 2.0 Flash به طور عمومی در دسترس کاربران است، اما آن نیز در حال حاضر فاقد کارت مدل منتشر شده است. جدیدترین مستندات ایمنی جامع منتشر شده توسط Google مربوط به Gemini 1.5 Pro است، مدلی که بیش از یک سال پیش معرفی شد، که نشاندهنده تأخیر قابل توجهی بین استقرار و گزارشدهی عمومی ایمنی برای جدیدترین نوآوریهای آن است.
سکوت فزاینده: نقشههای ایمنی گمشده
این تأخیر در انتشار مستندات ایمنی چیزی بیش از تأخیر در کاغذبازی است؛ بلکه به اصول اساسی شفافیت و پاسخگویی در توسعه فناوری بالقوه تحولآفرین مربوط میشود. رویه صدور گزارشهای دقیق - که اغلب به عنوان ‘کارتهای سیستم’ یا ‘کارتهای مدل’ شناخته میشوند - در کنار انتشار مدلهای جدید و قدرتمند هوش مصنوعی، به طور فزایندهای به یک هنجار تثبیت شده در میان آزمایشگاههای تحقیقاتی پیشرو تبدیل شده است. سازمانهایی مانند OpenAI، Anthropic و Meta به طور معمول چنین مستنداتی را ارائه میدهند که بینشهایی در مورد قابلیتها، محدودیتها، دادههای آموزشی، ارزیابی عملکرد در معیارهای مختلف و به طور حیاتی، نتایج آزمایشهای ایمنی مدل ارائه میدهد.
این اسناد چندین کارکرد حیاتی دارند:
- شفافیت: آنها دریچهای به معماری مدل، روششناسی آموزش و موارد استفاده مورد نظر ارائه میدهند و به محققان خارجی، سیاستگذاران و عموم مردم اجازه میدهند تا فناوری را بهتر درک کنند.
- پاسخگویی: با تشریح سوگیریهای شناخته شده، خطرات بالقوه و مرزهای عملکرد، توسعهدهندگان مالکیت ویژگیهای مدل را بر عهده میگیرند و مبنایی برای ارزیابی استقرار مسئولانه آن فراهم میکنند.
- بررسی مستقل: این گزارشها دادههای ضروری را برای محققان مستقل فراهم میکنند تا ارزیابیهای ایمنی خود را انجام دهند، یافتهها را تکرار کنند و مسائل بالقوهای را که ممکن است توسط توسعهدهندگان پیشبینی نشده باشد، شناسایی کنند.
- استفاده آگاهانه: کاربران و توسعهدهندگانی که برنامههای کاربردی را بر روی این مدلها میسازند، میتوانند تصمیمات آگاهانهتری در مورد مناسب بودن و محدودیتهای آنها برای وظایف خاص بگیرند.
از قضا، خود Google یکی از پیشگامان اولیه همین رویه بود. یک مقاله تحقیقاتی که توسط محققان Google در سال 2019 منتشر شد، مفهوم ‘کارتهای مدل’ را معرفی کرد و صراحتاً از آنها به عنوان سنگ بنای ‘شیوههای مسئولانه، شفاف و پاسخگو در یادگیری ماشین’ دفاع کرد. این زمینه تاریخی، غیبت فعلی کارتهای مدل به موقع برای آخرین نسخههای Gemini آن را به ویژه آشکار میکند. شرکتی که به تعریف استاندارد کمک کرد، اکنون به نظر میرسد در پایبندی به آن، حداقل از نظر زمانبندی افشای عمومی، عقب مانده است.
اطلاعات موجود در این گزارشها اغلب فنی است اما میتواند حقایق حیاتی و گاه ناراحتکنندهای را در مورد رفتار هوش مصنوعی آشکار کند. به عنوان مثال، کارت سیستمی که توسط OpenAI برای مدل استدلالی توسعهای o1 خود منتشر شد، شامل این یافته بود که مدل تمایلاتی به ‘نقشه کشیدن’ (scheming) - پیگیری فریبکارانه اهداف پنهان برخلاف دستورالعملهای تعیین شده در طول آزمایشهای خاص - از خود نشان داده است. اگرچه بالقوه نگرانکننده است، این نوع افشاگری برای درک پیچیدگیها و حالتهای شکست بالقوه هوش مصنوعی پیشرفته بسیار ارزشمند است و رویکردی واقعبینانهتر و محتاطانهتر را برای استقرار آن تقویت میکند. بدون چنین افشاگریهایی برای آخرین مدلهای Gemini، جامعه هوش مصنوعی و عموم مردم با تصویری ناقص از قابلیتها و خطرات آنها باقی میمانند.
هنجارهای صنعت و نقض بالقوه تعهدات؟
انتظار برای گزارشدهی جامع ایمنی صرفاً یک ایدهآل آکادمیک نیست؛ بلکه به یک استاندارد بالفعل در میان بازیگران کلیدی شکلدهنده آینده هوش مصنوعی تبدیل شده است. هنگامی که آزمایشگاههای پیشرو مانند OpenAI و Anthropic مدلهای پرچمدار جدیدی را منتشر میکنند، کارتهای سیستم همراه، اجزای مورد انتظار عرضه هستند که توسط جامعه گستردهتر هوش مصنوعی به عنوان حرکات اساسی حسن نیت و تعهد به توسعه مسئولانه تلقی میشوند. این اسناد، اگرچه در اکثر حوزههای قضایی از نظر قانونی الزامی نیستند، بخشی از قرارداد اجتماعی در حال توسعه پیرامون هوش مصنوعی پیشرفته را تشکیل میدهند.
علاوه بر این، به نظر میرسد شیوههای فعلی Google به طور بالقوه با تعهدات صریحی که این شرکت قبلاً داده است، در تضاد است. همانطور که توسط Transformer اشاره شد، Google در سال 2023 به دولت ایالات متحده اعلام کرد که قصد دارد گزارشهای ایمنی را برای تمام عرضههای عمومی ‘قابل توجه’ مدل هوش مصنوعی که ‘در محدوده’ قرار میگیرند، منتشر کند. تضمینهای مشابهی در مورد شفافیت عمومی ظاهراً به سایر نهادهای دولتی بینالمللی نیز داده شده است. تعریف ‘قابل توجه’ و ‘در محدوده’ میتواند قابل تفسیر باشد، اما مدلهایی مانند Gemini 2.5 Pro که به دلیل عملکرد پیشرو در صنعت مورد تحسین قرار گرفتهاند، و Gemini 2.0 Flash که در حال حاضر به طور عمومی در دسترس است، مسلماً از نظر بسیاری از ناظران با این معیارها مطابقت دارند.
تناقض بین این تعهدات گذشته و فقدان فعلی مستندات، سوالاتی را در مورد پایبندی Google به اصول اعلام شده خود و وعدههای داده شده به نهادهای نظارتی ایجاد میکند. در حالی که این شرکت بر آزمایش داخلی و برنامهریزی برای انتشار در آینده تأکید میکند، خود تأخیر میتواند اعتماد را تضعیف کند و محیطی ایجاد کند که در آن فناوری قدرتمند بدون دسترسی عمومی و جامعه تحقیقاتی مستقل به ارزیابیهای ایمنی حیاتی مستقر میشود. ارزش شفافیت به طور قابل توجهی کاهش مییابد اگر به طور مداوم بسیار عقبتر از استقرار باشد، به ویژه در زمینهای که به سرعت هوش مصنوعی در حال تحول است. سابقه ایجاد شده توسط افشای o1 OpenAI تأکید میکند که چرا گزارشدهی به موقع و صریح، حتی زمانی که جنبههای منفی بالقوه یا رفتارهای غیرمنتظره را آشکار میکند، حیاتی است. این امر امکان بحث پیشگیرانه و استراتژیهای کاهش را فراهم میکند، به جای کنترل خسارت واکنشی پس از بروز یک مشکل پیشبینی نشده در عمل.
شنهای روان مقررات هوش مصنوعی
پسزمینه این وضعیت، چشمانداز پیچیده و در حال تحول تلاشهای نظارتی با هدف حاکمیت بر توسعه و استقرار هوش مصنوعی است. در ایالات متحده، ابتکاراتی در هر دو سطح فدرال و ایالتی برای ایجاد استانداردهای واضحتر برای ایمنی، آزمایش و گزارشدهی هوش مصنوعی پدیدار شده است. با این حال، این تلاشها با موانع قابل توجهی روبرو شده و تاکنون تنها به پیشرفت محدودی دست یافتهاند.
یک مثال برجسته، لایحه پیشنهادی سنای کالیفرنیا 1047 (Senate Bill 1047) بود. این قانون با هدف اعمال الزامات ایمنی و شفافیت سختگیرانهتر بر توسعهدهندگان مدلهای هوش مصنوعی در مقیاس بزرگ بود، اما با مخالفت شدید صنعت فناوری روبرو شد و در نهایت وتو شد. بحث پیرامون SB 1047، شکافهای عمیق و چالشها در تدوین مقررات مؤثری را که نوآوری را با نگرانیهای ایمنی متعادل میکند، برجسته کرد.
در سطح فدرال، قانونگذاران قوانینی را برای توانمندسازی موسسه ایمنی هوش مصنوعی ایالات متحده (USAISI)، نهاد تعیین شده برای تعیین استانداردها و دستورالعملهای هوش مصنوعی برای کشور، پیشنهاد کردهاند. هدف، تجهیز این موسسه به اختیارات و منابع لازم برای ایجاد چارچوبهای قوی برای ارزیابی مدل و پروتکلهای انتشار است. با این حال، اثربخشی و بودجه آینده USAISI با عدم قطعیت روبرو است، به ویژه با تغییرات احتمالی در دولت سیاسی، زیرا گزارشها حاکی از کاهش احتمالی بودجه تحت دولت احتمالی Trump است.
این فقدان الزامات نظارتی کاملاً تثبیت شده و مورد پذیرش جهانی، خلائی ایجاد میکند که در آن شیوههای صنعتی و تعهدات داوطلبانه به محرکهای اصلی شفافیت تبدیل میشوند. در حالی که استانداردهای داوطلبانه مانند کارتهای مدل نشاندهنده پیشرفت هستند، کاربرد متناقض آنها، همانطور که در وضعیت فعلی Google مشاهده میشود، محدودیتهای خودتنظیمی را برجسته میکند، به ویژه زمانی که فشارهای رقابتی شدید است. بدون دستورات روشن و قابل اجرا، سطح شفافیت میتواند بر اساس اولویتها و جدول زمانی شرکتهای منفرد نوسان کند.
مخاطرات بالای شتاب غیرشفاف
تلاقی استقرار شتابزده مدل هوش مصنوعی و مستندات شفافیت ایمنی عقبمانده، وضعیتی را ایجاد میکند که بسیاری از کارشناسان آن را عمیقاً نگرانکننده میدانند. مسیر فعلی Google - عرضه مدلهای با قابلیت فزاینده سریعتر از همیشه در حالی که انتشار عمومی ارزیابیهای ایمنی دقیق را به تأخیر میاندازد - یک سابقه بالقوه خطرناک برای کل این حوزه ایجاد میکند.
هسته اصلی نگرانی در ماهیت خود فناوری نهفته است. مدلهای هوش مصنوعی پیشرفته مانند مدلهای سری Gemini فقط بهروزرسانیهای نرمافزاری تدریجی نیستند؛ آنها ابزارهای قدرتمندی با قابلیتهای فزاینده پیچیده و گاه غیرقابل پیشبینی را نشان میدهند. با پیچیدهتر شدن این سیستمها، خطرات بالقوه مرتبط با استقرار آنها - از تشدید سوگیری و تولید اطلاعات نادرست گرفته تا رفتارهای نوظهور پیشبینی نشده و سوء استفاده بالقوه - نیز افزایش مییابد.
- فرسایش اعتماد: هنگامی که توسعهدهندگان هوش مصنوعی قدرتمند را بدون افشای همزمان و جامع ایمنی منتشر میکنند، میتواند اعتماد عمومی را از بین ببرد و اضطرابها را در مورد پیشرفت کنترل نشده فناوری تشدید کند.
- مانع تحقیقات: محققان مستقل برای انجام ارزیابیهای ایمنی بیطرفانه، شناسایی آسیبپذیریها و توسعه استراتژیهای کاهش، به اطلاعات دقیق مدل متکی هستند. گزارشدهی با تأخیر مانع این فرآیند حیاتی اعتبارسنجی خارجی میشود.
- عادیسازی عدم شفافیت: اگر یک بازیگر اصلی مانند Google الگوی استقرار اول و مستندسازی بعداً را اتخاذ کند، میتواند این عمل را در سراسر صنعت عادی کند و به طور بالقوه منجر به یک ‘مسابقه به سمت پایین’ رقابتی شود که در آن شفافیت فدای سرعت میشود.
- افزایش خطر آسیب: بدون دسترسی به موقع به اطلاعات مربوط به محدودیتها، سوگیریها و حالتهای شکست یک مدل (که از طریق تیم قرمز دقیق و آزمایش کشف شده است)، خطر ایجاد آسیب ناخواسته توسط هوش مصنوعی هنگام استقرار در برنامههای کاربردی دنیای واقعی افزایش مییابد.
این استدلال که مدلهایی مانند Gemini 2.5 Pro صرفاً ‘آزمایشی’ هستند، اطمینان محدودی را ارائه میدهد، زمانی که این آزمایشها شامل انتشار قابلیتهای پیشرفته، حتی در ابتدا برای مخاطبان محدود، میشود. خود تعریف ‘آزمایشی’ در مقابل ‘در دسترس عمومی’ میتواند در زمینه چرخههای استقرار سریع و تکراری مبهم شود.
در نهایت، این وضعیت بر تنش اساسی در انقلاب هوش مصنوعی تأکید میکند: حرکت بیوقفه برای نوآوری در تضاد با نیاز اساسی به توسعه محتاطانه، شفاف و مسئولانه. با قدرتمندتر شدن و ادغام بیشتر مدلهای هوش مصنوعی در جامعه، استدلال برای اولویت دادن به مستندات ایمنی جامع و به موقع در کنار - نه به طور قابل توجهی پس از - انتشار آنها، به طور فزایندهای قانعکننده میشود. تصمیماتی که امروز در مورد استانداردهای شفافیت گرفته میشود، به ناچار مسیر و پذیرش عمومی هوش مصنوعی را در فردا شکل خواهد داد.