پیمایش مرز هوش مصنوعی: ضرورت غرب در عصر متن‌باز

ظهور مدل‌های پیچیده هوش مصنوعی مانند R1 شرکت DeepSeek، موج‌هایی را در سراسر چشم‌انداز فناوری غرب ایجاد کرده و باعث بازنگری ضروری در مورد استراتژی‌های مربوط به توسعه هوش مصنوعی، به‌ویژه پیرامون تقاضاهای اغلب رقابتی مقرون‌به‌صرفه بودن و قابلیت‌های پیشرفته، شده است. با این حال، پیامدها بسیار فراتر از معیارهای صرفاً فنی یا کارایی اقتصادی است. مسیری که DeepSeek برجسته می‌کند، مستلزم تأملی عمیق‌تر و فوری‌تر است: ظهور انواع خاصی از هوش مصنوعی، به‌ویژه آن‌هایی که توسط دولت‌های غیردموکراتیک حمایت می‌شوند، برای سلامت و اصول آینده خود دموکراسی در عصری که به‌طور فزاینده‌ای توسط الگوریتم‌ها شکل می‌گیرد، چه معنایی دارد؟

در قلب این چالش، مفهوم هوش مصنوعی متن‌باز (open-source AI) قرار دارد. این به سیستم‌های هوش مصنوعی اشاره دارد که اجزای بنیادی آن‌ها - از کد زیربنایی گرفته تا مجموعه داده‌های مورد استفاده برای آموزش - به‌طور عمومی در دسترس قرار می‌گیرند. این شفافیت به کاربران اجازه می‌دهد نه تنها از ابزارها استفاده کنند، بلکه عملکرد درونی آن‌ها را مطالعه کنند، آن‌ها را برای اهداف خاص تغییر دهند و نوآوری‌های خود را به اشتراک بگذارند. در حالی که تعریف دقیق ‘متن‌باز’ در زمینه مدل‌های پیچیده هوش مصنوعی هنوز مورد بحث است، پتانسیل آن بسیار زیاد است. این نویدبخش دموکراتیک کردن توسعه هوش مصنوعی، پرورش یک اکوسیستم پر جنب و جوش است که در آن توسعه‌دهندگان می‌توانند با یکدیگر همکاری کرده و بر اساس کار یکدیگر بنا کنند. این روحیه همکاری می‌تواند افراد، محققان و جوامع را قادر سازد تا راه‌حل‌های هوش مصنوعی را برای بخش‌های حیاتی مانند آموزش، ارائه خدمات بهداشتی و خدمات مالی متناسب‌سازی کنند و به‌طور بالقوه نوآوری قابل توجهی را آزاد کرده و پیشرفت اقتصادی را در همه زمینه‌ها تسریع بخشند.

با این حال، این مسیر فناوری امیدوارکننده، پیچیدگی‌ها و خطرات ذاتی را به‌ویژه در مورد حاکمیت و ارزش‌های زیربنایی آن به همراه دارد. به عنوان مثال، گزارش‌های پیرامون مدل DeepSeek R1 نشان می‌دهد که ممکن است شامل مکانیسم‌هایی باشد که اطلاعات را از کاربران سانسور یا به‌طور انتخابی پنهان می‌کند. این یک مثال، خطر بزرگ‌تری را برجسته می‌کند: کشورهای دموکراتیک صرفاً در معرض خطر عقب ماندن در رقابت فناوری برای عملکرد برتر هوش مصنوعی نیستند. آن‌ها با خطر به همان اندازه حیاتی واگذاری زمین در نبرد تعیین‌کننده برای شکل دادن به حاکمیت هوش مصنوعی روبرو هستند، که به‌طور بالقوه به سیستم‌های تعبیه‌شده با اصول اقتدارگرایانه اجازه می‌دهد در سطح جهانی گسترش یابند و بر آن‌هایی که برای حمایت از هنجارهای دموکراتیک مانند آزادی بیان و دسترسی به اطلاعات طراحی شده‌اند، سایه افکنند.

بنابراین، لحظه کنونی نیازمند پاسخی فعال و هماهنگ است. ضروری است که ایالات متحده (United States) با متحدان دموکراتیک خود، به‌ویژه اتحادیه اروپا (European Union) به عنوان یک همکار حیاتی، شراکتی قوی ایجاد کند تا استانداردها و بهترین شیوه‌های جهانی را به‌طور خاص برای هوش مصنوعی متن‌باز ایجاد کند. این شرکای فراآتلانتیک باید با بهره‌گیری از چارچوب‌های قانونی موجود و نفوذ قابل توجه بازار خود، پیشگام ایجاد یک ساختار حاکمیتی قوی برای این حوزه نوظهور باشند. یک گام اول حیاتی شامل توافق رسمی بر سر یک تعریف کاربردی از هوش مصنوعی متن‌باز برای تضمین وضوح و اثربخشی نظارتی است. پس از این، تسریع هماهنگ تلاش‌ها برای اطمینان از اینکه ارزش‌های دموکراتیک - شفافیت، انصاف، پاسخگویی و احترام به حقوق اساسی - عمیقاً در مدل‌های هوش مصنوعی متن‌باز در حال توسعه و ترویج تعبیه شده‌اند، ضروری است. چنین فشار استراتژیکی برای هموار کردن راه برای آینده هوش مصنوعی که واقعاً باز، شفاف و توانمندساز برای همه باشد، به جای آینده‌ای که به‌طور نامحسوس توسط کنترل خودکامه شکل گرفته است، ضروری است.

آغوش حساب‌شده چین برای باز بودن

درک پویایی‌های کنونی مستلزم درک مانورهای استراتژیک چین در حوزه هوش مصنوعی است. بخشی از موفقیت قابل توجه DeepSeek فقط مهارت فنی نیست؛ بلکه با سیگنال‌های فزاینده روشنی از سوی حزب کمونیست چین (CCP) همسو است که نشان‌دهنده قصد ادغام هنجارسازی هوش مصنوعی متن‌باز به‌طور مستقیم در معماری قانونی و سیاستی آن است. یک شاخص مهم در آوریل 2024 با پیش‌نویس قانون مدل هوش مصنوعی (Model AI Law) ارائه شد. این سند به‌صراحت حمایت پکن از پرورش اکوسیستم داخلی هوش مصنوعی متن‌باز را بیان می‌کند.

ماده 19 این پیش‌نویس قانون اعلام می‌کند که دولت “ساخت اکوسیستم متن‌باز را ترویج می‌کند” و فعالانه “از نهادهای مربوطه در ساخت یا بهره‌برداری از پلتفرم‌های متن‌باز، جوامع متن‌باز و پروژه‌های متن‌باز حمایت می‌کند.” این پیش‌نویس فراتر رفته و شرکت‌ها را تشویق می‌کند تا “کد منبع نرم‌افزار، طرح‌های سخت‌افزاری و خدمات کاربردی را به‌طور عمومی در دسترس قرار دهند”، ظاهراً برای تقویت اشتراک‌گذاری در سراسر صنعت و نوآوری مشترک. شاید گویاتر از همه، این پیش‌نویس کاهش یا حتی حذف مسئولیت قانونی برای نهادهایی که مدل‌های هوش مصنوعی متن‌باز ارائه می‌دهند را پیشنهاد می‌کند، مشروط بر ایجاد سیستم‌های حاکمیتی مطابق با “استانداردهای ملی” و اجرای “اقدامات ایمنی مربوطه”. این نشان‌دهنده یک تغییر بالقوه قابل توجه نسبت به قوانین قبلی مرتبط با هوش مصنوعی در چین است که اغلب بر حمایت صریح‌تر از حقوق کاربران تأکید داشتند. اگرچه هنوز یک پیش‌نویس است، اما مفاد خاص در قانون مدل هوش مصنوعی، طرح ارزشمندی را ارائه می‌دهد که نشان می‌دهد چین چگونه استقرار هوش مصنوعی متن‌باز را در داخل کشور تصور می‌کند و به‌طور حیاتی، مدل‌های هوش مصنوعی صادر شده آن ممکن است چه ویژگی‌هایی داشته باشند.

تقویت بیشتر این جهت‌گیری استراتژیک، چارچوب حاکمیت ایمنی هوش مصنوعی (AI Safety Governance Framework) است، سندی که چین قصد دارد از آن در سطح بین‌المللی برای “ترویج همکاری بین‌المللی در زمینه حاکمیت ایمنی هوش مصنوعی در سطح جهانی” استفاده کند. این چارچوب، قاطعیت فزاینده این کشور در مورد هوش مصنوعی متن‌باز را بازتاب می‌دهد. این چارچوب که توسط کمیته فنی ملی 260 چین در زمینه امنیت سایبری (China’s National Technical Committee 260 on Cybersecurity) - نهادی که ارتباط نزدیکی با اداره قدرتمند فضای سایبری چین (Cyberspace Administration of China) دارد و دستورالعمل‌های امنیت سایبری آن به‌طور رسمی توسط CCP در سپتامبر 2024 تصویب شد - تهیه شده است، به‌صراحت بیان می‌کند: “ما باید اشتراک دانش در هوش مصنوعی را ترویج کنیم، فناوری‌های هوش مصنوعی را تحت شرایط متن‌باز در دسترس عموم قرار دهیم و به‌طور مشترک تراشه‌ها، چارچوب‌ها و نرم‌افزارهای هوش مصنوعی را توسعه دهیم.” گنجاندن چنین بیانیه قوی در سندی که مخاطبان جهانی را هدف قرار داده است، به‌وضوح جاه‌طلبی چین را نه تنها برای مشارکت در جنبش هوش مصنوعی متن‌باز، بلکه برای قرار دادن خود به عنوان یک مدافع و استانداردگذار پیشرو در این حوزه فناوری حیاتی نشان می‌دهد. با این حال، این آغوش حساب‌شده برای “باز بودن”، در یک محیط کاملاً کنترل‌شده عمل می‌کند و هدف آن مهار قدرت نوآورانه متن‌باز ضمن حفظ همسویی با اهداف دولتی است.

تردید آمریکا: دفاع بر جهت‌دهی

در آن سوی اقیانوس آرام، روایت پیرامون هوش مصنوعی متن‌باز در ایالات متحده (United States) مطالعه‌ای از تضادها را ارائه می‌دهد. مدتی است که حامیان در صنعت فناوری و دانشگاه از مزایای قابل توجه رویکردهای متن‌باز دفاع می‌کنند. چهره‌های برجسته صنعت به‌طور علنی از دولت ایالات متحده خواسته‌اند تا تأکید استراتژیک بیشتری بر پرورش توسعه هوش مصنوعی متن‌باز داشته باشد. نمونه بارز آن، راه‌اندازی مدل متن‌باز Llama 3.1 توسط Mark Zuckerberg است، همراه با این ادعای او که متن‌باز “بهترین شانسجهان” را برای ایجاد گسترده “فرصت اقتصادی و امنیت برای همه” نشان می‌دهد.

علی‌رغم این حمایت صریح از سوی محافل تأثیرگذار، ایالات متحده به‌طور آشکار در ایجاد هرگونه چارچوب قانونی قابل توجهی که به‌طور خاص برای ترویج یا هدایت توسعه هوش مصنوعی متن‌باز طراحی شده باشد، ناکام مانده است. در حالی که یک سناتور آمریکایی در سال 2023 لایحه‌ای را با هدف ایجاد چارچوبی برای امنیت نرم‌افزار متن‌باز ارائه کرد، این قانون بدون پیشرفت معناداری متوقف شده است. آژانس‌های فدرال به این موضوع پرداخته‌اند، اما اغلب با موضعی محتاطانه یا واکنشی. سال گذشته، اداره ملی مخابرات و اطلاعات (NTIA) گزارشی را منتشر کرد که مدل‌های پایه هوش مصنوعی با کاربرد دوگانه با “وزن‌های باز (open weights)” را بررسی می‌کرد. توجه به این نکته مهم است که “وزن‌های باز” معمولاً به این معنی است که پارامترهای مدل برای استفاده در دسترس هستند، اما لزوماً تمام معیارهای واقعاً متن‌باز بودن را برآورده نمی‌کند (که اغلب شامل دسترسی به داده‌ها و کد آموزش است). گزارش NTIA به دولت توصیه کرد که نظارت خود را بر خطرات بالقوه مرتبط با این مدل‌های با وزن باز تشدید کند تا محدودیت‌های مناسب را بهتر تعیین کند. متعاقباً، چارچوب نهایی نظارتی هوش مصنوعی دولت Biden موضعی تا حدودی ملایم‌تر نسبت به مدل‌های باز اتخاذ کرد و الزامات سخت‌گیرانه‌تری را برای قدرتمندترین مدل‌های با وزن بسته (closed-weight) تعیین کرد، در حالی که عمدتاً مدل‌های با وزن باز را از این محدودیت‌های خاص مستثنی کرد.

با این وجود، یک استراتژی ملی روشن و فعال برای حمایت از هوش مصنوعی متن‌باز دموکراتیک همچنان دست‌نیافتنی است. جهت‌گیری آینده تحت تغییرات احتمالی رهبری، لایه دیگری از عدم قطعیت را اضافه می‌کند. رئیس جمهور سابق Donald Trump سیاست یا راهنمایی خاصی در مورد هوش مصنوعی متن‌باز بیان نکرده است. در حالی که او فرمان اجرایی اولیه هوش مصنوعی رئیس جمهور Biden را لغو کرد، فرمان جایگزین صادر شده هیچ ابتکار مشخصی را برای پرورش یا هدایت توسعه هوش مصنوعی متن‌باز مشخص نکرد.

به‌طور کلی، رویکرد آمریکا عمدتاً دفاعی به نظر می‌رسد. تمرکز اصلی به نظر می‌رسد بر توسعه مدل‌های هوش مصنوعی بسیار توانمند، اغلب اختصاصی، و در عین حال صرف تلاش قابل توجه برای جلوگیری از دسترسی دشمنان، به‌ویژه چین، به فناوری پیشرفته نیمه‌هادی و قابلیت‌های هوش مصنوعی باشد. این موضع دفاعی، اگرچه از منظر امنیت ملی قابل درک است، اما خطر نادیده گرفتن استراتژی تهاجمی حیاتی را به همراه دارد: پرورش و ترویج فعالانه اکوسیستم جهانی هوش مصنوعی متن‌باز ریشه‌دار در اصول دموکراتیک. به نظر می‌رسد ایالات متحده مشغول محافظت از قلعه‌های فناوری خود است و به‌طور بالقوه فرصت شکل دادن به چشم‌انداز گسترده‌تر جهانی را از طریق انتشار فعال جایگزین‌های هوش مصنوعی باز و احترام‌گذار به حقوق از دست می‌دهد.

پارادوکس نظارتی اروپا: قدرت و فلج

اتحادیه اروپا (European Union)، که به دلیل موضع قاطع نظارتی خود در حوزه دیجیتال مشهور است، نوع دیگری از چالش را در مورد هوش مصنوعی متن‌باز ارائه می‌دهد. از زمان اجرای برجسته مقررات عمومی حفاظت از داده (GDPR)، اتحادیه اروپا با موفقیت خود را به عنوان یک استانداردگذار جهانی برای اقتصاد دیجیتال معرفی کرده است. کشورها و شرکت‌های چند ملیتی در سراسر جهان اغلب شیوه‌های خود را با چارچوب‌های انطباق اتحادیه اروپا هماهنگ می‌کنند، روندی که با ظهور قانون جامع هوش مصنوعی اتحادیه اروپا (EU AI Act) به حوزه هوش مصنوعی نیز گسترش یافته است. این قانون با هدف ایجاد مقررات مبتنی بر ریسک برای سیستم‌های هوش مصنوعی در سراسر اتحادیه است.

با این حال، وقتی نوبت به پرداختن به‌طور خاص به هوش مصنوعی متن‌باز می‌رسد، ماشین‌آلات نظارتی قدرتمند اتحادیه اروپا به‌طور شگفت‌آوری مردد به نظر می‌رسد و تلاش‌های آن تا حدودی توسعه نیافته است. ماده 2 قانون هوش مصنوعی حاوی اشاره‌ای کوتاه است که معافیت‌های خاصی از مقررات را برای مدل‌های هوش مصنوعی متن‌باز در نظر می‌گیرد. با این حال، تأثیر عملی این معافیت محدود به نظر می‌رسد، به‌ویژه از آنجا که معمولاً برای مدل‌هایی که برای اهداف تجاری مستقر می‌شوند، اعمال نمی‌شود. این دامنه محدود، تأثیر واقعی آن را بر چشم‌انداز رو به رشد هوش مصنوعی متن‌باز به‌طور قابل توجهی کاهش می‌دهد.

این وضعیت متناقض - اذعان به متن‌باز در حالی که فعالانه آن را پرورش نمی‌دهد - در سایر اسناد راهنمای اتحادیه اروپا نیز ادامه دارد. جدیدترین آیین‌نامه عملکرد هوش مصنوعی عمومی (General-Purpose AI Code of Practice)، که به‌طور فرضی در مارس 2025 برای اهداف این بحث منتشر شده است، ممکن است سهم مثبت مدل‌های متن‌باز را در توسعه هوش مصنوعی ایمن، انسان‌محور و قابل اعتماد تشخیص دهد. با این حال، چنین اسنادی اغلب فاقد تفصیل معنادار یا اقدامات مشخصی هستند که برای ترویج فعالانه توسعه و پذیرش گسترده این مدل‌های هوش مصنوعی متن‌باز بالقوه مفید طراحی شده باشند. حتی در چارچوب‌های استراتژیک مانند قطب‌نمای رقابت‌پذیری اتحادیه اروپا (EU Competitiveness Compass) - که ظاهراً برای مقابله با مقررات بیش از حد و تقویت رقابت‌پذیری استراتژیک در حوزه‌های کلیدی مانند هوش مصنوعی طراحی شده است - اصطلاح “متن‌باز” به‌طور آشکار غایب است یا حداقل توجه را دریافت می‌کند.

این رویکرد محتاطانه و تقریباً کم‌حرف از سوی بروکسل در قبال پذیرش کامل و تنظیم هوش مصنوعی متن‌باز احتمالاً ناشی از چندین عامل است. یک مانع مهم، دشواری ذاتی در تعریف دقیق هوش مصنوعی متن‌باز است. برخلاف نرم‌افزار متن‌باز سنتی که عمدتاً شامل کد منبع است، هوش مصنوعی متن‌باز شامل مدل‌های پیچیده از پیش آموزش‌دیده، مجموعه داده‌های وسیع و معماری‌های پیچیده است. فقدان یک تعریف قانونی پذیرفته شده جهانی، علی‌رغم تلاش‌های سازمان‌هایی مانند ابتکار متن‌باز (OSI)، سطحی از عدم قطعیت قانونی را ایجاد می‌کند که نهادهای نظارتی مانند کمیسیون اروپا معمولاً با آن راحت نیستند.

با این حال، محرک اصلی این عدم فعالیت نسبی ممکن است عمیق‌تر باشد. موفقیت خود اتحادیه اروپا در ایجاد رژیم‌های نظارتی گسترده مانند GDPR ممکن است کمیسیون را از ایجاد معافیت‌های گسترده برای فناوری‌ای به قدرت و سرعت تکامل هوش مصنوعی، به‌ویژه زمانی که نوع متن‌باز آن تا حدودی نامشخص باقی مانده است، محتاط کند. ممکن است این ترس وجود داشته باشد که پذیرش بیش از حد سریع هوش مصنوعی متن‌باز، بدون حفاظ‌های کاملاً تثبیت‌شده، ممکن است به‌طور ناخواسته نفوذ نظارتی جهانی اتحادیه اروپا را که به سختی به دست آمده است، تضعیف کند. این یک قمار استراتژیک است - اولویت دادن به کنترل جامع بر پرورش بالقوه یک اکوسیستم نوآوری باز پویاتر، هرچند کمتر قابل پیش‌بینی - قماری که بروکسل تاکنون تمایل چندانی به انجام قاطعانه آن نشان نداده است. این فلج نظارتی خلائی را ایجاد می‌کند که دیگران به‌راحتی آن را پر می‌کنند.

چشم‌انداز ژئوپلیتیکی در حال تغییر هوش مصنوعی

تلاقی فشار استراتژیک چین به سمت هوش مصنوعی متن‌باز و تردید نسبی ایالات متحده و اتحادیه اروپا، به‌طور فعال در حال تغییر شکل دادن به عرصه ژئوپلیتیکی هوش مصنوعی است. حرکت مصمم چین به سمت خودکفایی فناوری، کارزاری که اکنون به‌وضوح شامل تحکیم استراتژی‌های خود پیرامون هوش مصنوعی متن‌باز است، تا حدی می‌تواند به عنوان پاسخی به کنترل‌های صادراتی پایدار ایالات متحده که سخت‌افزار محاسباتی پیشرفته و نیمه‌هادی‌ها را هدف قرار داده است، درک شود؛ اقداماتی که به دلیل نگرانی‌های آمریکا در مورد امنیت ملی، رقابت اقتصادی و حفاظت از مالکیت معنوی که به چندین سال قبل بازمی‌گردد، اجرا شده‌اند. اقدامات متقابل چین، از جمله استقبال از متن‌باز، رقابت استراتژیک گسترده‌تر و تشدید شونده برای برتری فناوری بین دو قدرت جهانی را منعکس می‌کند. در همین حال، اتحادیه اروپا معمولاً نفوذ خود را در این رقابت نه از طریق رقابت مستقیم فناوری در همان مقیاس، بلکه با تعیین هنجارهای جهانی متمرکز بر حفاظت از حقوق اساسی، حریم خصوصی و ارزش‌های دموکراتیک مانند انصاف و پاسخگویی الگوریتمی اعمال می‌کند - استانداردهایی که در واقع سیاست‌های شرکت‌های بزرگ فناوری جهانی را شکل داده‌اند.

با این حال، چین با قرار دادن تهاجمی خود به عنوان یک رهبر و مدافع هوش مصنوعی متن‌باز، هوشمندانه یک چالش - دسترسی محدود به برخی فناوری‌های غربی - را به یک فرصت استراتژیک تبدیل می‌کند. این کشور به‌طور مؤثر نسخه متمایز خود از باز بودن هوش مصنوعی را برای جامعه جهانی، به‌ویژه برای کشورهای در حال توسعه که به دنبال ابزارهای هوش مصنوعی در دسترس هستند، ایجاد و بازاریابی می‌کند. ظهور مدل‌های توانمند چینی مانند R1 شرکت DeepSeek، در کنار پیشنهادات دیگر غول‌های فناوری داخلی مانند Alibaba، در حال تغییر پویایی‌های جهانی است. این به‌طور بالقوه اشتیاق جهانی را برای مدل‌های هوش مصنوعی منحصراً بسته و اختصاصی کاهش می‌دهد، به‌ویژه اگر جایگزین‌های باز در دسترس‌تر یا مقرون‌به‌صرفه‌تر به نظر برسند. به عنوان مثال، DeepSeek مدل‌های کوچک‌تر و با نیاز محاسباتی کمتری را منتشر کرده است که برای دستگاه‌هایی با قدرت پردازش محدود مناسب هستند. گزارش شده است که پلتفرم‌هایی مانند Hugging Face، یک مرکز اصلی برای توسعه هوش مصنوعی، شروع به تجزیه و تحلیل و تکرار جنبه‌هایی از روش‌های آموزش DeepSeek-R1 برای بهبود مدل‌های خود کرده‌اند. حتی غول‌های فناوری غربی مانند Microsoft، OpenAI و Meta به‌طور فزاینده‌ای در حال بررسی تکنیک‌هایی مانند تقطیر مدل (model distillation) هستند که بخشی از برجستگی آن به دلیل تحولات DeepSeek بوده است.

این چشم‌انداز در حال تحول نشان می‌دهد که چین به‌طور فعال گفتگوی جهانی پیرامون باز بودن هوش مصنوعی را پیش می‌برد و ایالات متحده را برای اولین بار مجبور به واکنش و انطباق با این گفتمان می‌کند. همزمان، اتحادیه اروپا تا حدودی در وضعیت سکون قانونی و نظارتی در مورد متن‌باز گرفتار مانده است. این عدم تقارن یک عدم توازن قدرت قابل توجه را به‌طور خاص در حوزه حیاتی حاکمیت و گسترش هوش مصنوعی متن‌باز ایجاد می‌کند.

نکته حیاتی این است که نسخه‌ای از هوش مصنوعی متن‌باز که توسط چین تبلیغ می‌شود، نگرانی‌های قابل توجهی را برای جوامع دموکراتیک به همراه دارد. به نظر می‌رسد CCP به‌طور استراتژیک در حال اجرای یک سیستم “دو مسیره” است: تشویق باز بودن و همکاری نسبی بین توسعه‌دهندگان و شرکت‌های هوش مصنوعی برای تحریک نوآوری، و در عین حال تعبیه کنترل‌ها و محدودیت‌ها در مدل‌های عمومی برای محدود کردن جریان اطلاعات و آزادی بیان. این “باز بودن” به‌شدت تحت تأثیر الگوهای تثبیت‌شده کنترل فناوری چین است، که اغلب مستلزم آن است که ورودی‌ها و خروجی‌های مدل با روایت‌های مورد تأیید دولت، ارزش‌های CCP و ارائه تصویری مثبت از کشور همسو باشند. حتی در چارچوب حاکمیت ایمنی هوش مصنوعی با گرایش جهانی آن، جایی که مقامات چینی آشکارا اصول متن‌باز را می‌پذیرند، زبان گویایی در مورد محتوای تولید شده توسط هوش مصنوعی که تهدیدی برای “امنیت ایدئولوژیک” ایجاد می‌کند، وجود دارد - سیگنال روشنی از محدودیت‌های ذاتی CCP بر آزادی اندیشه و بیان.

بدون یک چارچوب جایگزین قوی که مبتنی بر حفاظت از اصول دموکراتیک و حقوق اساسی بشر باشد، جهان با خطر تکثیر و پذیرش گسترده تفسیر محدودکننده‌تر چین از هوش مصنوعی متن‌باز روبرو است. رژیم‌های اقتدارگرا و به‌طور بالقوه حتی بازیگران غیردولتی در سطح جهانی می‌توانند به‌راحتی بر اساس این مدل‌ها بنا کنند و سانسور و نظارت پیچیده را فعال کنند، در حالی که به‌طور گمراه‌کننده‌ای ادعا می‌کنند که صرفاً دسترسی به فناوری را ترویج می‌کنند. بنابراین، تمرکز صرف بر تطبیق عملکرد فناوری چین کافی نیست. دموکراسی‌ها باید با پیشگامی در ایجاد و ترویج حاکمیت دموکراتیک برای عصر هوش مصنوعی متن‌باز، به‌طور استراتژیک پاسخ دهند.

ایجاد مسیری فراآتلانتیک به پیش

مسیر کنونی نیازمند اقدام قاطع و همکاری مجدد بین دموکراسی‌های پیشرو جهان است. ایالات متحده و اتحادیه اروپا باید به‌طور جدی به دنبال اجرای استراتژی دیپلماسی متن‌باز (open-source diplomacy) باشند. این شامل پیشبرد فعالانه توسعه و اشتراک‌گذاری مدل‌های هوش مصنوعی توانمند، قابل اعتماد و احترام‌گذار به حقوق در سراسر جهان به عنوان وزنه تعادلی در برابر جایگزین‌های اقتدارگرایانه است. محور این تلاش، ایجاد یک چارچوب حاکمیتی یکپارچه برای هوش مصنوعی متن‌باز است که به‌طور مشترک توسط ایالات متحده و اتحادیه اروپا توسعه یافته باشد.

برای شکل دادن مؤثر به آینده هوش مصنوعی دموکراتیک، ایجاد یک گروه کاری فراآتلانتیک اختصاصی در زمینه هوش مصنوعی متن‌باز گام بعدی حیاتی است. این گروه باید در صورت لزوم از ساختارهای موجود، مانند مشارکت جهانی در هوش مصنوعی (GPAI)، استفاده کند، اما باید به‌طور حیاتی از مشارکت فعال و ورودی شرکت‌های فناوری پیشرو، محققان دانشگاهی و کارشناسان جامعه مدنی از هر دو سوی اقیانوس اطلس در طول فرآیند توسعه چارچوب اطمینان حاصل کند. این رویکرد فراگیر برای تدوین استانداردهایی که هم اصولی و هم عملی باشند، حیاتی است.

ثانیاً، هم ایالات متحده و هم اتحادیه اروپا باید منابع ملموسی را پشت این چشم‌انداز قرار دهند. این به معنای هدایت استراتژیک بودجه به سمت مؤسسات دانشگاهی، آزمایشگاه‌های تحقیقاتی و استارت‌آپ‌های نوآور است که به‌طور خاص بر توسعه مدل‌های هوش مصنوعی متن‌باز که صریحاً با ارزش‌های دموکراتیک همسو هستند تمرکز دارند. ویژگی‌های کلیدی چنین مدل‌هایی عبارتند از:

  • شفافیت در طراحی و داده‌های آموزش.
  • حفاظت‌های قوی در برابر سانسور و دستکاری.
  • مکانیسم‌هایی برای پاسخگویی و کاهش سوگیری.
  • احترام ذاتی به حریم خصوصی و حقوق اساسی.

ترویج این مدل‌های دموکراتیک مستلزم شناخت روشنی از سوی سیاست‌گذاران در واشنگتن و بروکسل است که مزایای استراتژیک بلندمدت پرورش یک اکوسیستم جهانی مبتنی بر این اصول به‌طور قابل توجهی از خطرات کوتاه‌مدت درک شده مرتبط با باز بودن بیشتر است. همزمان، اتحادیه اروپا باید از قدرت نظارتی تثبیت‌شده خود به‌طور قاطعانه‌تری در این حوزه خاص استفاده کند. ضمن حفظ تعهد خود به استانداردهای بالا، بروکسل باید بر تردید خود در مورد تعریف قانونی هوش مصنوعی متن‌باز غلبه کند و سریع‌تر برای ایجاد دستورالعمل‌ها و مشوق‌های روشن اقدام کند، و بدین ترتیب با شتاب فزاینده چین در شکل دادن به هنجارهای جهانی مقابله کند. پذیرش درجه‌ای از عدم قطعیت مدیریت‌شده ممکن است برای جلوگیری از واگذاری بیشتر زمین ضروری باشد.

در حالی که روابط فراآتلانتیک ممکن است در جبهه‌های مختلف با تلاطم‌های دوره‌ای روبرو شود، چالشی که با برتری چین در هوش مصنوعی متن‌باز ایجاد شده است، بر ضرورت مطلق همکاری ایالات متحده و اتحادیه اروپا بر رقابت در این حوزه تأکید می‌کند. بازپس‌گیری رهبری در این عرصه فناوری محوری مستلزم یک ابتکار فراآتلانتیک هماهنگ و آینده‌نگر است. این ابتکار باید توسعه سیاست فعال، تأمین مالی تحقیقات هدفمند و حمایت از نوآوری را ادغام کند، که همگی با هدف تعیین استاندارد جهانی برای آینده هوش مصنوعی است که واقعاً احترام‌گذار به حقوق، شفاف، خلاق و توانمندساز برای مردم در سراسر جهان باشد. زمان مشاهده مردد به پایان رسیده است؛ اکنون لحظه اقدام قاطع و یکپارچه است.