پیشرفت بیوقفه هوش مصنوعی (AI) گفتگویی جهانی را در بر گرفته است که صنایع و ملل مختلف را در مورد ضرورت ایجاد سازوکارهای نظارتی قوی فراگیر کرده است. این سازوکارها برای کاهش خطرات ذاتی مرتبط با قدرت تحولآفرین هوش مصنوعی پیشبینی شدهاند. با این حال، تصمیم اخیر دولت ایالات متحده مبنی بر قرار دادن یک مؤسسه تحقیقاتی برجسته چینی در لیست سیاه، بر چشمانداز همکاری بینالمللی در این زمینه حیاتی سایه افکنده است. این اقدام، در حالی که هدف آن حفاظت از منافع ملی است، ممکن است ناخواسته مانع از توسعه یک رویکرد متحد و جهانی برای حکمرانی هوش مصنوعی شود.
لیست سیاه آکادمی هوش مصنوعی پکن
در اقدامی که در جامعه بینالمللی هوش مصنوعی طنینانداز شد، آکادمی هوش مصنوعی پکن (BAAI) در 28 مارس 2025 توسط دولت ایالات متحده به لیست نهادها اضافه شد. این اقدام عملاً دسترسی BAAI به فناوری و همکاریهای ایالات متحده را محدود میکند و به نگرانیها در مورد مشارکت بالقوه آن در فعالیتهایی که منافع امنیت ملی و سیاست خارجی ایالات متحده را تهدید میکند، استناد میکند. منطق پشت این تصمیم ناشی از ماهیت دوگانه استفاده درکشده هوش مصنوعی است، جایی که فناوریهای توسعهیافته برای کاربردهای غیرنظامی نیز میتوانند برای اهداف نظامی یا نظارتی مورد استفاده مجدد قرار گیرند.
BAAI، یک مؤسسه تحقیقاتی پیشرو در چین، در خط مقدم نوآوری هوش مصنوعی بوده و سهم قابل توجهی در زمینههایی مانند پردازش زبان طبیعی، بینایی رایانه و یادگیری ماشین داشته است. حذف آن از همکاریهای بینالمللی نگرانیهایی را در مورد تکهتکه شدن تحقیقات هوش مصنوعی و پتانسیل واگرایی استانداردها و هنجارها ایجاد میکند.
استدلال برای همکاری بینالمللی در حکمرانی هوش مصنوعی
ماهیت ذاتی هوش مصنوعی مستلزم یک رویکرد جهانی برای حکمرانی است. سیستمهای هوش مصنوعی بهطور فزایندهای به هم متصل هستند، از مرزهای ملی فراتر میروند و جوامع را در سراسر جهان تحت تأثیر قرار میدهند. چالشهای ناشی از هوش مصنوعی، مانند تعصب، نقض حریم خصوصی و پتانسیل سوء استفاده، نیازمند اقدام جمعی و مسئولیت مشترک است.
نیاز به استانداردهای هماهنگ
یکی از استدلالهای اصلی برای همکاری بینالمللی، نیاز به استانداردهای هماهنگ است. با تکثیر فناوریهای هوش مصنوعی در کشورهای مختلف، فقدان استانداردهای مشترک میتواند منجر به مسائل مربوط به قابلیت همکاری شود، مانع از ادغام یکپارچه سیستمهای هوش مصنوعی شود و موانعی را برای تجارت و همکاری بینالمللی ایجاد کند. استانداردهای هماهنگ همچنین میتوانند اعتماد و شفافیت را ارتقا دهند و اطمینان حاصل کنند که سیستمهای هوش مصنوعی به روشی مسئولانه و اخلاقی توسعه و مستقر میشوند.
رسیدگی به نگرانیهای اخلاقی
هوش مصنوعی نگرانیهای اخلاقی متعددی از جمله تعصب، انصاف و پاسخگویی را مطرح میکند. سیستمهای هوش مصنوعی میتوانند تعصبات اجتماعی موجود را تداوم بخشند و تقویت کنند، اگر بر روی دادههای مغرضانه آموزش داده شوند یا بدون در نظر گرفتن کافی اصول اخلاقی طراحی شوند. همکاری بینالمللی برای توسعه دستورالعملها و چارچوبهای اخلاقی که به این نگرانیها میپردازند و اطمینان حاصل میکنند که سیستمهای هوش مصنوعی به نحوی استفاده میشوند که رفاه انسانی و عدالت اجتماعی را ارتقا میدهد، ضروری است.
کاهش خطرات سوء استفاده از هوش مصنوعی
پتانسیل سوء استفاده از هوش مصنوعی، بهویژه در زمینههایی مانند سلاحهای خودمختار و فناوریهای نظارتی، تهدیدی جدی برای امنیت جهانی و حقوق بشر است. همکاری بینالمللی برای ایجاد هنجارها و مقرراتی که از توسعه و استقرار سیستمهای هوش مصنوعی که میتوانند برای اهداف مخرب استفاده شوند، جلوگیری کند، بسیار مهم است. این شامل اقداماتی مانند کنترل صادرات، الزامات شفافیت و توافقات بینالمللی در مورد استفاده مسئولانه از هوش مصنوعی است.
پیامدهای احتمالی حذف چین
در حالی که تصمیم دولت ایالات متحده برای قرار دادن BAAI در لیست سیاه ممکن است ناشی از نگرانیهای امنیتی مشروع باشد، اما پیامدهای بالقوهای را به همراه دارد که میتواند تلاش گستردهتر برای ایجاد یک سیستم جهانی حکمرانی هوش مصنوعی را تضعیف کند.
ممانعت از گفتگو و همکاری
حذف چین، یک بازیگر اصلی در زمینه هوش مصنوعی، از مجامع و همکاریهای بینالمللی میتواند مانع از گفتگو و همکاری در مورد مسائل حیاتی مانند ایمنی، اخلاق و امنیت هوش مصنوعی شود. بدون مشارکت چین، هر چارچوب جهانی برای حکمرانی هوش مصنوعی احتمالاً ناقص و ناکارآمد خواهد بود.
تقویت واگرایی فناوری
قرار دادن BAAI در لیست سیاه میتواند روند واگرایی فناوری را تسریع کند، جایی که کشورهای مختلف استانداردهای و هنجارهای هوش مصنوعی خود را توسعه میدهند که منجر به تکهتکه شدن و ناسازگاری میشود. این میتواند موانعی را برای تجارت و همکاری بینالمللی ایجاد کند و همچنین خطر استفاده از سیستمهای هوش مصنوعی برای اهداف مخرب را افزایش دهد.
محدود کردن دسترسی به استعداد و تخصص
چین دارای منبع عظیمی از استعداد و تخصص هوش مصنوعی است و حذف محققان و مؤسسات چینی از همکاریهای بینالمللی میتواند دسترسی به این منبع ارزشمند را محدود کند. این میتواند سرعت نوآوری هوش مصنوعی را کاهش دهد و مانع از توسعه راهحلهایی برای چالشهای جهانی شود.
راه پیش رو: متعادل کردن نگرانیهای امنیتی با نیاز به همکاری
پیمایش در چشمانداز پیچیده حکمرانی هوش مصنوعی نیازمند تعادل ظریف بین رسیدگی به نگرانیهای امنیتی مشروع و تقویت همکاری بینالمللی است. در حالی که حفاظت از منافع ملی و جلوگیری از سوء استفاده از هوش مصنوعی مهم است، تعامل با همه ذینفعان، از جمله چین، برای توسعه درک مشترک از خطرات و فرصتهای ارائه شده توسط هوش مصنوعی به همان اندازه مهم است.
تعیین خطوط قرمز روشن
یک رویکرد این است که خطوط قرمز روشنی را تعیین کنیم که رفتار غیرقابل قبول را در توسعه و استقرار هوش مصنوعی تعریف کند. این خطوط قرمز میتوانند بر زمینههایی مانند سلاحهای خودمختار، فناوریهای نظارتی و استفاده از هوش مصنوعی برای نقض حقوق بشر متمرکز شوند. با بیان واضح این مرزها، جامعه بینالمللی میتواند پیام قویای را ارسال کند مبنی بر اینکه استفادههای خاصی از هوش مصنوعی غیرقابل قبول است و تحمل نخواهد شد.
ترویج شفافیت و پاسخگویی
یکی دیگر از گامهای مهم، ترویج شفافیت و پاسخگویی در توسعه و استقرار سیستمهای هوش مصنوعی است. این شامل اقداماتی مانند ملزم کردن توسعهدهندگان به افشای دادهها و الگوریتمهای مورد استفاده در سیستمهای خود، و همچنین ایجاد سازوکارهایی برای ممیزی و نظارت مستقل است. با افزایش شفافیت و پاسخگویی، جامعه بینالمللی میتواند اعتماد به سیستمهای هوش مصنوعی را ایجاد کند و خطر سوء استفاده را کاهش دهد.
تقویت گفتگو و تعامل
علیرغم چالشها، تقویت گفتگو و تعامل با چین در مورد حکمرانی هوش مصنوعی ضروری است. این میتواند شامل برگزاری جلسات منظم بین مقامات دولتی، محققان و نمایندگان صنعت برای بحث در مورد مسائل مورد نگرانی مشترک باشد. همچنین میتواند شامل حمایت از پروژهها و ابتکارات تحقیقاتی مشترک باشد که همکاری در زمینه ایمنی، اخلاق و امنیت هوش مصنوعی را ترویج میکند.
تأکید بر منافع مشترک
در نهایت، مهم است که بر منافع مشترکی که همه کشورها در تضمین توسعه و استقرار مسئولانه هوش مصنوعی دارند، تأکید کنیم. این منافع مشترک شامل ارتقای رشد اقتصادی، بهبود مراقبتهای بهداشتی، رسیدگی به تغییرات آب و هوایی و افزایش امنیت جهانی است. با تمرکز بر این اهداف مشترک، جامعه بینالمللی میتواند پایهای برای همکاری در زمینه حکمرانی هوش مصنوعی ایجاد کند.
پیامدهای گستردهتر برای همکاری جهانی فناوری
اقدامات دولت ایالات متحده در مورد BAAI نشان دهنده روند گستردهتری از افزایش تنشهای ژئوپلیتیکی در بخش فناوری است. این روند نگرانیهایی را در مورد آینده همکاری جهانی فناوری و پتانسیل یک چشمانداز فناوری متلاشی ایجاد میکند.
خطر یک “اسپلینترنت”
یکی از بزرگترین خطرات ظهور یک “اسپلینترنت” است، جایی که کشورهای مختلف اکوسیستمهای اینترنتی جداگانهای را توسعه میدهند، با استانداردها، پروتکلها و ساختارهای حکمرانی مختلف. این میتواند موانعی را برای جریان دادههای فرامرزی ایجاد کند، مانع از تجارت و همکاری بینالمللی شود و مقابله با چالشهای جهانی مانند امنیت سایبری و تغییرات آب و هوایی را دشوارتر کند.
نیاز به چندجانبهگرایی
برای جلوگیری از بدترین سناریو، تجدیدنظر در اصول چندجانبهگرایی و همکاری بینالمللی در بخش فناوری ضروری است. این شامل کار از طریق سازمانهای بینالمللی مانند سازمان ملل متحد، سازمان تجارت جهانی و اتحادیه بینالمللی مخابرات برای توسعه استانداردهای و هنجارهای مشترک برای عصر دیجیتال است.
ترویج باز بودن و قابلیت همکاری
همچنین مهم است که باز بودن و قابلیت همکاری را در بخش فناوری ترویج کنیم. این به معنای اجتناب از اقدامات حمایتگرایانهای است که دسترسی به بازار را محدود میکند یا علیه شرکتهای خارجی تبعیض قائل میشود. همچنین به معنای حمایت از فناوریها و استانداردهای منبع باز است که نوآوری و رقابت را ترویج میکنند.
نقش حیاتی گفتمان عمومی و آگاهی
در نهایت، موفقیت هر تلاشی برای حکمرانی هوش مصنوعی و ترویج همکاری جهانی فناوری به تقویت گفتمان عمومی آگاهانه و افزایش آگاهی در مورد چالشها و فرصتهای ارائه شده توسط این فناوریها بستگی دارد.
آموزش عمومی
آموزش عمومی در مورد هوش مصنوعی و اثرات بالقوه آن بر جامعه ضروری است. این شامل ارائه اطلاعات دقیق و در دسترس در مورد فناوریهای هوش مصنوعی، و همچنین تقویت تفکر انتقادی در مورد پیامدهای اخلاقی و اجتماعی هوش مصنوعی است.
تعامل با جامعه مدنی
سازمانهای جامعه مدنی، از جمله گروههای مدافع، اندیشکدهها و مؤسسات دانشگاهی، نقش مهمی در شکل دادن به بحث در مورد حکمرانی هوش مصنوعی دارند. این سازمانها میتوانند تحلیلهای مستقلی ارائه دهند، از سیاستهای مسئولانه حمایت کنند و دولتها و شرکتها را پاسخگو نگه دارند.
ترویج سواد رسانهای
در نهایت، مهم است که سواد رسانهای را ترویج دهیم و با اطلاعات نادرست در مورد هوش مصنوعی مبارزه کنیم. این شامل آموزش به مردم در مورد چگونگی ارزیابی انتقادی اطلاعات آنلاین، و همچنین حمایت از ابتکارات بررسی واقعیت و تلاش برای مبارزه با کمپینهای اطلاعات نادرست است.
در نتیجه، تصمیم به حذف چین از تعیین قوانین برای هوش مصنوعی تصمیمی پیچیده با پیامدهای بالقوه گسترده است. در حالی که باید به نگرانیهای امنیتی مشروع رسیدگی شود، یافتن راهی برای متعادل کردن این نگرانیها با نیاز به همکاری بینالمللی بسیار مهم است. راه پیش رو مستلزم تعیین خطوط قرمز روشن، ترویج شفافیت و پاسخگویی، تقویت گفتگو و تعامل، و تأکید بر منافع مشترک است. با همکاری، جامعه بینالمللی میتواند از قدرت هوش مصنوعی برای خیر استفاده کند و در عین حال خطرات آن را کاهش دهد و آیندهای عادلانهتر و پایدارتر را برای همه تضمین کند. خطر بالاست و زمان اقدام فرا رسیده است.