ظهور مدلهای پیچیده هوش مصنوعی مانند R1 شرکت DeepSeek، موجهایی را در سراسر چشمانداز فناوری غرب ایجاد کرده و باعث بازنگری ضروری در مورد استراتژیهای مربوط به توسعه هوش مصنوعی، بهویژه پیرامون تقاضاهای اغلب رقابتی مقرونبهصرفه بودن و قابلیتهای پیشرفته، شده است. با این حال، پیامدها بسیار فراتر از معیارهای صرفاً فنی یا کارایی اقتصادی است. مسیری که DeepSeek برجسته میکند، مستلزم تأملی عمیقتر و فوریتر است: ظهور انواع خاصی از هوش مصنوعی، بهویژه آنهایی که توسط دولتهای غیردموکراتیک حمایت میشوند، برای سلامت و اصول آینده خود دموکراسی در عصری که بهطور فزایندهای توسط الگوریتمها شکل میگیرد، چه معنایی دارد؟
در قلب این چالش، مفهوم هوش مصنوعی متنباز (open-source AI) قرار دارد. این به سیستمهای هوش مصنوعی اشاره دارد که اجزای بنیادی آنها - از کد زیربنایی گرفته تا مجموعه دادههای مورد استفاده برای آموزش - بهطور عمومی در دسترس قرار میگیرند. این شفافیت به کاربران اجازه میدهد نه تنها از ابزارها استفاده کنند، بلکه عملکرد درونی آنها را مطالعه کنند، آنها را برای اهداف خاص تغییر دهند و نوآوریهای خود را به اشتراک بگذارند. در حالی که تعریف دقیق ‘متنباز’ در زمینه مدلهای پیچیده هوش مصنوعی هنوز مورد بحث است، پتانسیل آن بسیار زیاد است. این نویدبخش دموکراتیک کردن توسعه هوش مصنوعی، پرورش یک اکوسیستم پر جنب و جوش است که در آن توسعهدهندگان میتوانند با یکدیگر همکاری کرده و بر اساس کار یکدیگر بنا کنند. این روحیه همکاری میتواند افراد، محققان و جوامع را قادر سازد تا راهحلهای هوش مصنوعی را برای بخشهای حیاتی مانند آموزش، ارائه خدمات بهداشتی و خدمات مالی متناسبسازی کنند و بهطور بالقوه نوآوری قابل توجهی را آزاد کرده و پیشرفت اقتصادی را در همه زمینهها تسریع بخشند.
با این حال، این مسیر فناوری امیدوارکننده، پیچیدگیها و خطرات ذاتی را بهویژه در مورد حاکمیت و ارزشهای زیربنایی آن به همراه دارد. به عنوان مثال، گزارشهای پیرامون مدل DeepSeek R1 نشان میدهد که ممکن است شامل مکانیسمهایی باشد که اطلاعات را از کاربران سانسور یا بهطور انتخابی پنهان میکند. این یک مثال، خطر بزرگتری را برجسته میکند: کشورهای دموکراتیک صرفاً در معرض خطر عقب ماندن در رقابت فناوری برای عملکرد برتر هوش مصنوعی نیستند. آنها با خطر به همان اندازه حیاتی واگذاری زمین در نبرد تعیینکننده برای شکل دادن به حاکمیت هوش مصنوعی روبرو هستند، که بهطور بالقوه به سیستمهای تعبیهشده با اصول اقتدارگرایانه اجازه میدهد در سطح جهانی گسترش یابند و بر آنهایی که برای حمایت از هنجارهای دموکراتیک مانند آزادی بیان و دسترسی به اطلاعات طراحی شدهاند، سایه افکنند.
بنابراین، لحظه کنونی نیازمند پاسخی فعال و هماهنگ است. ضروری است که ایالات متحده (United States) با متحدان دموکراتیک خود، بهویژه اتحادیه اروپا (European Union) به عنوان یک همکار حیاتی، شراکتی قوی ایجاد کند تا استانداردها و بهترین شیوههای جهانی را بهطور خاص برای هوش مصنوعی متنباز ایجاد کند. این شرکای فراآتلانتیک باید با بهرهگیری از چارچوبهای قانونی موجود و نفوذ قابل توجه بازار خود، پیشگام ایجاد یک ساختار حاکمیتی قوی برای این حوزه نوظهور باشند. یک گام اول حیاتی شامل توافق رسمی بر سر یک تعریف کاربردی از هوش مصنوعی متنباز برای تضمین وضوح و اثربخشی نظارتی است. پس از این، تسریع هماهنگ تلاشها برای اطمینان از اینکه ارزشهای دموکراتیک - شفافیت، انصاف، پاسخگویی و احترام به حقوق اساسی - عمیقاً در مدلهای هوش مصنوعی متنباز در حال توسعه و ترویج تعبیه شدهاند، ضروری است. چنین فشار استراتژیکی برای هموار کردن راه برای آینده هوش مصنوعی که واقعاً باز، شفاف و توانمندساز برای همه باشد، به جای آیندهای که بهطور نامحسوس توسط کنترل خودکامه شکل گرفته است، ضروری است.
آغوش حسابشده چین برای باز بودن
درک پویاییهای کنونی مستلزم درک مانورهای استراتژیک چین در حوزه هوش مصنوعی است. بخشی از موفقیت قابل توجه DeepSeek فقط مهارت فنی نیست؛ بلکه با سیگنالهای فزاینده روشنی از سوی حزب کمونیست چین (CCP) همسو است که نشاندهنده قصد ادغام هنجارسازی هوش مصنوعی متنباز بهطور مستقیم در معماری قانونی و سیاستی آن است. یک شاخص مهم در آوریل 2024 با پیشنویس قانون مدل هوش مصنوعی (Model AI Law) ارائه شد. این سند بهصراحت حمایت پکن از پرورش اکوسیستم داخلی هوش مصنوعی متنباز را بیان میکند.
ماده 19 این پیشنویس قانون اعلام میکند که دولت “ساخت اکوسیستم متنباز را ترویج میکند” و فعالانه “از نهادهای مربوطه در ساخت یا بهرهبرداری از پلتفرمهای متنباز، جوامع متنباز و پروژههای متنباز حمایت میکند.” این پیشنویس فراتر رفته و شرکتها را تشویق میکند تا “کد منبع نرمافزار، طرحهای سختافزاری و خدمات کاربردی را بهطور عمومی در دسترس قرار دهند”، ظاهراً برای تقویت اشتراکگذاری در سراسر صنعت و نوآوری مشترک. شاید گویاتر از همه، این پیشنویس کاهش یا حتی حذف مسئولیت قانونی برای نهادهایی که مدلهای هوش مصنوعی متنباز ارائه میدهند را پیشنهاد میکند، مشروط بر ایجاد سیستمهای حاکمیتی مطابق با “استانداردهای ملی” و اجرای “اقدامات ایمنی مربوطه”. این نشاندهنده یک تغییر بالقوه قابل توجه نسبت به قوانین قبلی مرتبط با هوش مصنوعی در چین است که اغلب بر حمایت صریحتر از حقوق کاربران تأکید داشتند. اگرچه هنوز یک پیشنویس است، اما مفاد خاص در قانون مدل هوش مصنوعی، طرح ارزشمندی را ارائه میدهد که نشان میدهد چین چگونه استقرار هوش مصنوعی متنباز را در داخل کشور تصور میکند و بهطور حیاتی، مدلهای هوش مصنوعی صادر شده آن ممکن است چه ویژگیهایی داشته باشند.
تقویت بیشتر این جهتگیری استراتژیک، چارچوب حاکمیت ایمنی هوش مصنوعی (AI Safety Governance Framework) است، سندی که چین قصد دارد از آن در سطح بینالمللی برای “ترویج همکاری بینالمللی در زمینه حاکمیت ایمنی هوش مصنوعی در سطح جهانی” استفاده کند. این چارچوب، قاطعیت فزاینده این کشور در مورد هوش مصنوعی متنباز را بازتاب میدهد. این چارچوب که توسط کمیته فنی ملی 260 چین در زمینه امنیت سایبری (China’s National Technical Committee 260 on Cybersecurity) - نهادی که ارتباط نزدیکی با اداره قدرتمند فضای سایبری چین (Cyberspace Administration of China) دارد و دستورالعملهای امنیت سایبری آن بهطور رسمی توسط CCP در سپتامبر 2024 تصویب شد - تهیه شده است، بهصراحت بیان میکند: “ما باید اشتراک دانش در هوش مصنوعی را ترویج کنیم، فناوریهای هوش مصنوعی را تحت شرایط متنباز در دسترس عموم قرار دهیم و بهطور مشترک تراشهها، چارچوبها و نرمافزارهای هوش مصنوعی را توسعه دهیم.” گنجاندن چنین بیانیه قوی در سندی که مخاطبان جهانی را هدف قرار داده است، بهوضوح جاهطلبی چین را نه تنها برای مشارکت در جنبش هوش مصنوعی متنباز، بلکه برای قرار دادن خود به عنوان یک مدافع و استانداردگذار پیشرو در این حوزه فناوری حیاتی نشان میدهد. با این حال، این آغوش حسابشده برای “باز بودن”، در یک محیط کاملاً کنترلشده عمل میکند و هدف آن مهار قدرت نوآورانه متنباز ضمن حفظ همسویی با اهداف دولتی است.
تردید آمریکا: دفاع بر جهتدهی
در آن سوی اقیانوس آرام، روایت پیرامون هوش مصنوعی متنباز در ایالات متحده (United States) مطالعهای از تضادها را ارائه میدهد. مدتی است که حامیان در صنعت فناوری و دانشگاه از مزایای قابل توجه رویکردهای متنباز دفاع میکنند. چهرههای برجسته صنعت بهطور علنی از دولت ایالات متحده خواستهاند تا تأکید استراتژیک بیشتری بر پرورش توسعه هوش مصنوعی متنباز داشته باشد. نمونه بارز آن، راهاندازی مدل متنباز Llama 3.1 توسط Mark Zuckerberg است، همراه با این ادعای او که متنباز “بهترین شانسجهان” را برای ایجاد گسترده “فرصت اقتصادی و امنیت برای همه” نشان میدهد.
علیرغم این حمایت صریح از سوی محافل تأثیرگذار، ایالات متحده بهطور آشکار در ایجاد هرگونه چارچوب قانونی قابل توجهی که بهطور خاص برای ترویج یا هدایت توسعه هوش مصنوعی متنباز طراحی شده باشد، ناکام مانده است. در حالی که یک سناتور آمریکایی در سال 2023 لایحهای را با هدف ایجاد چارچوبی برای امنیت نرمافزار متنباز ارائه کرد، این قانون بدون پیشرفت معناداری متوقف شده است. آژانسهای فدرال به این موضوع پرداختهاند، اما اغلب با موضعی محتاطانه یا واکنشی. سال گذشته، اداره ملی مخابرات و اطلاعات (NTIA) گزارشی را منتشر کرد که مدلهای پایه هوش مصنوعی با کاربرد دوگانه با “وزنهای باز (open weights)” را بررسی میکرد. توجه به این نکته مهم است که “وزنهای باز” معمولاً به این معنی است که پارامترهای مدل برای استفاده در دسترس هستند، اما لزوماً تمام معیارهای واقعاً متنباز بودن را برآورده نمیکند (که اغلب شامل دسترسی به دادهها و کد آموزش است). گزارش NTIA به دولت توصیه کرد که نظارت خود را بر خطرات بالقوه مرتبط با این مدلهای با وزن باز تشدید کند تا محدودیتهای مناسب را بهتر تعیین کند. متعاقباً، چارچوب نهایی نظارتی هوش مصنوعی دولت Biden موضعی تا حدودی ملایمتر نسبت به مدلهای باز اتخاذ کرد و الزامات سختگیرانهتری را برای قدرتمندترین مدلهای با وزن بسته (closed-weight) تعیین کرد، در حالی که عمدتاً مدلهای با وزن باز را از این محدودیتهای خاص مستثنی کرد.
با این وجود، یک استراتژی ملی روشن و فعال برای حمایت از هوش مصنوعی متنباز دموکراتیک همچنان دستنیافتنی است. جهتگیری آینده تحت تغییرات احتمالی رهبری، لایه دیگری از عدم قطعیت را اضافه میکند. رئیس جمهور سابق Donald Trump سیاست یا راهنمایی خاصی در مورد هوش مصنوعی متنباز بیان نکرده است. در حالی که او فرمان اجرایی اولیه هوش مصنوعی رئیس جمهور Biden را لغو کرد، فرمان جایگزین صادر شده هیچ ابتکار مشخصی را برای پرورش یا هدایت توسعه هوش مصنوعی متنباز مشخص نکرد.
بهطور کلی، رویکرد آمریکا عمدتاً دفاعی به نظر میرسد. تمرکز اصلی به نظر میرسد بر توسعه مدلهای هوش مصنوعی بسیار توانمند، اغلب اختصاصی، و در عین حال صرف تلاش قابل توجه برای جلوگیری از دسترسی دشمنان، بهویژه چین، به فناوری پیشرفته نیمههادی و قابلیتهای هوش مصنوعی باشد. این موضع دفاعی، اگرچه از منظر امنیت ملی قابل درک است، اما خطر نادیده گرفتن استراتژی تهاجمی حیاتی را به همراه دارد: پرورش و ترویج فعالانه اکوسیستم جهانی هوش مصنوعی متنباز ریشهدار در اصول دموکراتیک. به نظر میرسد ایالات متحده مشغول محافظت از قلعههای فناوری خود است و بهطور بالقوه فرصت شکل دادن به چشمانداز گستردهتر جهانی را از طریق انتشار فعال جایگزینهای هوش مصنوعی باز و احترامگذار به حقوق از دست میدهد.
پارادوکس نظارتی اروپا: قدرت و فلج
اتحادیه اروپا (European Union)، که به دلیل موضع قاطع نظارتی خود در حوزه دیجیتال مشهور است، نوع دیگری از چالش را در مورد هوش مصنوعی متنباز ارائه میدهد. از زمان اجرای برجسته مقررات عمومی حفاظت از داده (GDPR)، اتحادیه اروپا با موفقیت خود را به عنوان یک استانداردگذار جهانی برای اقتصاد دیجیتال معرفی کرده است. کشورها و شرکتهای چند ملیتی در سراسر جهان اغلب شیوههای خود را با چارچوبهای انطباق اتحادیه اروپا هماهنگ میکنند، روندی که با ظهور قانون جامع هوش مصنوعی اتحادیه اروپا (EU AI Act) به حوزه هوش مصنوعی نیز گسترش یافته است. این قانون با هدف ایجاد مقررات مبتنی بر ریسک برای سیستمهای هوش مصنوعی در سراسر اتحادیه است.
با این حال، وقتی نوبت به پرداختن بهطور خاص به هوش مصنوعی متنباز میرسد، ماشینآلات نظارتی قدرتمند اتحادیه اروپا بهطور شگفتآوری مردد به نظر میرسد و تلاشهای آن تا حدودی توسعه نیافته است. ماده 2 قانون هوش مصنوعی حاوی اشارهای کوتاه است که معافیتهای خاصی از مقررات را برای مدلهای هوش مصنوعی متنباز در نظر میگیرد. با این حال، تأثیر عملی این معافیت محدود به نظر میرسد، بهویژه از آنجا که معمولاً برای مدلهایی که برای اهداف تجاری مستقر میشوند، اعمال نمیشود. این دامنه محدود، تأثیر واقعی آن را بر چشمانداز رو به رشد هوش مصنوعی متنباز بهطور قابل توجهی کاهش میدهد.
این وضعیت متناقض - اذعان به متنباز در حالی که فعالانه آن را پرورش نمیدهد - در سایر اسناد راهنمای اتحادیه اروپا نیز ادامه دارد. جدیدترین آییننامه عملکرد هوش مصنوعی عمومی (General-Purpose AI Code of Practice)، که بهطور فرضی در مارس 2025 برای اهداف این بحث منتشر شده است، ممکن است سهم مثبت مدلهای متنباز را در توسعه هوش مصنوعی ایمن، انسانمحور و قابل اعتماد تشخیص دهد. با این حال، چنین اسنادی اغلب فاقد تفصیل معنادار یا اقدامات مشخصی هستند که برای ترویج فعالانه توسعه و پذیرش گسترده این مدلهای هوش مصنوعی متنباز بالقوه مفید طراحی شده باشند. حتی در چارچوبهای استراتژیک مانند قطبنمای رقابتپذیری اتحادیه اروپا (EU Competitiveness Compass) - که ظاهراً برای مقابله با مقررات بیش از حد و تقویت رقابتپذیری استراتژیک در حوزههای کلیدی مانند هوش مصنوعی طراحی شده است - اصطلاح “متنباز” بهطور آشکار غایب است یا حداقل توجه را دریافت میکند.
این رویکرد محتاطانه و تقریباً کمحرف از سوی بروکسل در قبال پذیرش کامل و تنظیم هوش مصنوعی متنباز احتمالاً ناشی از چندین عامل است. یک مانع مهم، دشواری ذاتی در تعریف دقیق هوش مصنوعی متنباز است. برخلاف نرمافزار متنباز سنتی که عمدتاً شامل کد منبع است، هوش مصنوعی متنباز شامل مدلهای پیچیده از پیش آموزشدیده، مجموعه دادههای وسیع و معماریهای پیچیده است. فقدان یک تعریف قانونی پذیرفته شده جهانی، علیرغم تلاشهای سازمانهایی مانند ابتکار متنباز (OSI)، سطحی از عدم قطعیت قانونی را ایجاد میکند که نهادهای نظارتی مانند کمیسیون اروپا معمولاً با آن راحت نیستند.
با این حال، محرک اصلی این عدم فعالیت نسبی ممکن است عمیقتر باشد. موفقیت خود اتحادیه اروپا در ایجاد رژیمهای نظارتی گسترده مانند GDPR ممکن است کمیسیون را از ایجاد معافیتهای گسترده برای فناوریای به قدرت و سرعت تکامل هوش مصنوعی، بهویژه زمانی که نوع متنباز آن تا حدودی نامشخص باقی مانده است، محتاط کند. ممکن است این ترس وجود داشته باشد که پذیرش بیش از حد سریع هوش مصنوعی متنباز، بدون حفاظهای کاملاً تثبیتشده، ممکن است بهطور ناخواسته نفوذ نظارتی جهانی اتحادیه اروپا را که به سختی به دست آمده است، تضعیف کند. این یک قمار استراتژیک است - اولویت دادن به کنترل جامع بر پرورش بالقوه یک اکوسیستم نوآوری باز پویاتر، هرچند کمتر قابل پیشبینی - قماری که بروکسل تاکنون تمایل چندانی به انجام قاطعانه آن نشان نداده است. این فلج نظارتی خلائی را ایجاد میکند که دیگران بهراحتی آن را پر میکنند.
چشمانداز ژئوپلیتیکی در حال تغییر هوش مصنوعی
تلاقی فشار استراتژیک چین به سمت هوش مصنوعی متنباز و تردید نسبی ایالات متحده و اتحادیه اروپا، بهطور فعال در حال تغییر شکل دادن به عرصه ژئوپلیتیکی هوش مصنوعی است. حرکت مصمم چین به سمت خودکفایی فناوری، کارزاری که اکنون بهوضوح شامل تحکیم استراتژیهای خود پیرامون هوش مصنوعی متنباز است، تا حدی میتواند به عنوان پاسخی به کنترلهای صادراتی پایدار ایالات متحده که سختافزار محاسباتی پیشرفته و نیمههادیها را هدف قرار داده است، درک شود؛ اقداماتی که به دلیل نگرانیهای آمریکا در مورد امنیت ملی، رقابت اقتصادی و حفاظت از مالکیت معنوی که به چندین سال قبل بازمیگردد، اجرا شدهاند. اقدامات متقابل چین، از جمله استقبال از متنباز، رقابت استراتژیک گستردهتر و تشدید شونده برای برتری فناوری بین دو قدرت جهانی را منعکس میکند. در همین حال، اتحادیه اروپا معمولاً نفوذ خود را در این رقابت نه از طریق رقابت مستقیم فناوری در همان مقیاس، بلکه با تعیین هنجارهای جهانی متمرکز بر حفاظت از حقوق اساسی، حریم خصوصی و ارزشهای دموکراتیک مانند انصاف و پاسخگویی الگوریتمی اعمال میکند - استانداردهایی که در واقع سیاستهای شرکتهای بزرگ فناوری جهانی را شکل دادهاند.
با این حال، چین با قرار دادن تهاجمی خود به عنوان یک رهبر و مدافع هوش مصنوعی متنباز، هوشمندانه یک چالش - دسترسی محدود به برخی فناوریهای غربی - را به یک فرصت استراتژیک تبدیل میکند. این کشور بهطور مؤثر نسخه متمایز خود از باز بودن هوش مصنوعی را برای جامعه جهانی، بهویژه برای کشورهای در حال توسعه که به دنبال ابزارهای هوش مصنوعی در دسترس هستند، ایجاد و بازاریابی میکند. ظهور مدلهای توانمند چینی مانند R1 شرکت DeepSeek، در کنار پیشنهادات دیگر غولهای فناوری داخلی مانند Alibaba، در حال تغییر پویاییهای جهانی است. این بهطور بالقوه اشتیاق جهانی را برای مدلهای هوش مصنوعی منحصراً بسته و اختصاصی کاهش میدهد، بهویژه اگر جایگزینهای باز در دسترستر یا مقرونبهصرفهتر به نظر برسند. به عنوان مثال، DeepSeek مدلهای کوچکتر و با نیاز محاسباتی کمتری را منتشر کرده است که برای دستگاههایی با قدرت پردازش محدود مناسب هستند. گزارش شده است که پلتفرمهایی مانند Hugging Face، یک مرکز اصلی برای توسعه هوش مصنوعی، شروع به تجزیه و تحلیل و تکرار جنبههایی از روشهای آموزش DeepSeek-R1 برای بهبود مدلهای خود کردهاند. حتی غولهای فناوری غربی مانند Microsoft، OpenAI و Meta بهطور فزایندهای در حال بررسی تکنیکهایی مانند تقطیر مدل (model distillation) هستند که بخشی از برجستگی آن به دلیل تحولات DeepSeek بوده است.
این چشمانداز در حال تحول نشان میدهد که چین بهطور فعال گفتگوی جهانی پیرامون باز بودن هوش مصنوعی را پیش میبرد و ایالات متحده را برای اولین بار مجبور به واکنش و انطباق با این گفتمان میکند. همزمان، اتحادیه اروپا تا حدودی در وضعیت سکون قانونی و نظارتی در مورد متنباز گرفتار مانده است. این عدم تقارن یک عدم توازن قدرت قابل توجه را بهطور خاص در حوزه حیاتی حاکمیت و گسترش هوش مصنوعی متنباز ایجاد میکند.
نکته حیاتی این است که نسخهای از هوش مصنوعی متنباز که توسط چین تبلیغ میشود، نگرانیهای قابل توجهی را برای جوامع دموکراتیک به همراه دارد. به نظر میرسد CCP بهطور استراتژیک در حال اجرای یک سیستم “دو مسیره” است: تشویق باز بودن و همکاری نسبی بین توسعهدهندگان و شرکتهای هوش مصنوعی برای تحریک نوآوری، و در عین حال تعبیه کنترلها و محدودیتها در مدلهای عمومی برای محدود کردن جریان اطلاعات و آزادی بیان. این “باز بودن” بهشدت تحت تأثیر الگوهای تثبیتشده کنترل فناوری چین است، که اغلب مستلزم آن است که ورودیها و خروجیهای مدل با روایتهای مورد تأیید دولت، ارزشهای CCP و ارائه تصویری مثبت از کشور همسو باشند. حتی در چارچوب حاکمیت ایمنی هوش مصنوعی با گرایش جهانی آن، جایی که مقامات چینی آشکارا اصول متنباز را میپذیرند، زبان گویایی در مورد محتوای تولید شده توسط هوش مصنوعی که تهدیدی برای “امنیت ایدئولوژیک” ایجاد میکند، وجود دارد - سیگنال روشنی از محدودیتهای ذاتی CCP بر آزادی اندیشه و بیان.
بدون یک چارچوب جایگزین قوی که مبتنی بر حفاظت از اصول دموکراتیک و حقوق اساسی بشر باشد، جهان با خطر تکثیر و پذیرش گسترده تفسیر محدودکنندهتر چین از هوش مصنوعی متنباز روبرو است. رژیمهای اقتدارگرا و بهطور بالقوه حتی بازیگران غیردولتی در سطح جهانی میتوانند بهراحتی بر اساس این مدلها بنا کنند و سانسور و نظارت پیچیده را فعال کنند، در حالی که بهطور گمراهکنندهای ادعا میکنند که صرفاً دسترسی به فناوری را ترویج میکنند. بنابراین، تمرکز صرف بر تطبیق عملکرد فناوری چین کافی نیست. دموکراسیها باید با پیشگامی در ایجاد و ترویج حاکمیت دموکراتیک برای عصر هوش مصنوعی متنباز، بهطور استراتژیک پاسخ دهند.
ایجاد مسیری فراآتلانتیک به پیش
مسیر کنونی نیازمند اقدام قاطع و همکاری مجدد بین دموکراسیهای پیشرو جهان است. ایالات متحده و اتحادیه اروپا باید بهطور جدی به دنبال اجرای استراتژی دیپلماسی متنباز (open-source diplomacy) باشند. این شامل پیشبرد فعالانه توسعه و اشتراکگذاری مدلهای هوش مصنوعی توانمند، قابل اعتماد و احترامگذار به حقوق در سراسر جهان به عنوان وزنه تعادلی در برابر جایگزینهای اقتدارگرایانه است. محور این تلاش، ایجاد یک چارچوب حاکمیتی یکپارچه برای هوش مصنوعی متنباز است که بهطور مشترک توسط ایالات متحده و اتحادیه اروپا توسعه یافته باشد.
برای شکل دادن مؤثر به آینده هوش مصنوعی دموکراتیک، ایجاد یک گروه کاری فراآتلانتیک اختصاصی در زمینه هوش مصنوعی متنباز گام بعدی حیاتی است. این گروه باید در صورت لزوم از ساختارهای موجود، مانند مشارکت جهانی در هوش مصنوعی (GPAI)، استفاده کند، اما باید بهطور حیاتی از مشارکت فعال و ورودی شرکتهای فناوری پیشرو، محققان دانشگاهی و کارشناسان جامعه مدنی از هر دو سوی اقیانوس اطلس در طول فرآیند توسعه چارچوب اطمینان حاصل کند. این رویکرد فراگیر برای تدوین استانداردهایی که هم اصولی و هم عملی باشند، حیاتی است.
ثانیاً، هم ایالات متحده و هم اتحادیه اروپا باید منابع ملموسی را پشت این چشمانداز قرار دهند. این به معنای هدایت استراتژیک بودجه به سمت مؤسسات دانشگاهی، آزمایشگاههای تحقیقاتی و استارتآپهای نوآور است که بهطور خاص بر توسعه مدلهای هوش مصنوعی متنباز که صریحاً با ارزشهای دموکراتیک همسو هستند تمرکز دارند. ویژگیهای کلیدی چنین مدلهایی عبارتند از:
- شفافیت در طراحی و دادههای آموزش.
- حفاظتهای قوی در برابر سانسور و دستکاری.
- مکانیسمهایی برای پاسخگویی و کاهش سوگیری.
- احترام ذاتی به حریم خصوصی و حقوق اساسی.
ترویج این مدلهای دموکراتیک مستلزم شناخت روشنی از سوی سیاستگذاران در واشنگتن و بروکسل است که مزایای استراتژیک بلندمدت پرورش یک اکوسیستم جهانی مبتنی بر این اصول بهطور قابل توجهی از خطرات کوتاهمدت درک شده مرتبط با باز بودن بیشتر است. همزمان، اتحادیه اروپا باید از قدرت نظارتی تثبیتشده خود بهطور قاطعانهتری در این حوزه خاص استفاده کند. ضمن حفظ تعهد خود به استانداردهای بالا، بروکسل باید بر تردید خود در مورد تعریف قانونی هوش مصنوعی متنباز غلبه کند و سریعتر برای ایجاد دستورالعملها و مشوقهای روشن اقدام کند، و بدین ترتیب با شتاب فزاینده چین در شکل دادن به هنجارهای جهانی مقابله کند. پذیرش درجهای از عدم قطعیت مدیریتشده ممکن است برای جلوگیری از واگذاری بیشتر زمین ضروری باشد.
در حالی که روابط فراآتلانتیک ممکن است در جبهههای مختلف با تلاطمهای دورهای روبرو شود، چالشی که با برتری چین در هوش مصنوعی متنباز ایجاد شده است، بر ضرورت مطلق همکاری ایالات متحده و اتحادیه اروپا بر رقابت در این حوزه تأکید میکند. بازپسگیری رهبری در این عرصه فناوری محوری مستلزم یک ابتکار فراآتلانتیک هماهنگ و آیندهنگر است. این ابتکار باید توسعه سیاست فعال، تأمین مالی تحقیقات هدفمند و حمایت از نوآوری را ادغام کند، که همگی با هدف تعیین استاندارد جهانی برای آینده هوش مصنوعی است که واقعاً احترامگذار به حقوق، شفاف، خلاق و توانمندساز برای مردم در سراسر جهان باشد. زمان مشاهده مردد به پایان رسیده است؛ اکنون لحظه اقدام قاطع و یکپارچه است.