محدودیت‌های هوش مصنوعی محاوره‌ای: پیمایش در وب پیچیده

ظهور سریع پلتفرم‌های پیچیده هوش مصنوعی محاوره‌ای بدون شک تعاملات دیجیتال را بازآفرینی کرده و قابلیت‌های بی‌سابقه‌ای در بازیابی اطلاعات، تولید محتوا و ارتباطات خودکار ارائه داده است. ابزارهایی مانند ChatGPT و معاصرانش تخیل جهانی را به تسخیر خود درآورده‌اند و قدرت مدل‌های زبان بزرگ (LLMs) را در تقلید از گفتگوی شبه‌انسانی و انجام وظایف پیچیده نشان داده‌اند. با این حال، این جهش فناوری با استقبال جهانی مواجه نشده است. در عوض، تعداد فزاینده‌ای از کشورها در حال ایجاد موانع، اجرای ممنوعیت‌های کامل یا مقررات سختگیرانه بر روی این سیستم‌های قدرتمند هوش مصنوعی هستند. این واکنش ناشی از مجموعه‌ای پیچیده از نگرانی‌هاست که اضطراب‌ها در مورد حریم خصوصی فردی، سلاح‌سازی بالقوه اطلاعات نادرست، تهدیدات علیه امنیت ملی و تمایل به حفظ کنترل سیاسی و ایدئولوژیک را در هم می‌آمیزد. درک انگیزه‌های متنوع پشت این محدودیت‌ها برای فهم چشم‌انداز جهانی در حال تحول حاکمیت هوش مصنوعی حیاتی است. تصمیماتی که امروز در پایتخت‌های سراسر جهان گرفته می‌شود، مسیر توسعه و استقرار هوش مصنوعی را به طور قابل توجهی شکل خواهد داد و مجموعه‌ای ناهمگون از دسترسی و کنترل ایجاد می‌کند که منعکس‌کننده اولویت‌ها و ترس‌های عمیق ملی است.

موضع ایتالیا: الزامات حریم خصوصی باعث توقف موقت شد

در اقدامی که در سراسر جهان غرب بازتاب یافت، ایتالیا به یکی از پیشگامان قابل توجه در اتخاذ تدابیر محدودکننده علیه یک پلتفرم بزرگ هوش مصنوعی مولد تبدیل شد. در مارس 2023، سازمان حفاظت از داده‌های ایتالیا، موسوم به Garante per la protezione dei dati personali، دستور تعلیق موقت سرویس ChatGPT شرکت OpenAI را در داخل مرزهای این کشور صادر کرد. این تصمیم ریشه در ترس‌های انتزاعی نداشت، بلکه بر اساس اتهامات مشخص عدم انطباق با مقررات سختگیرانه حریم خصوصی داده‌ها که در مقررات عمومی حفاظت از داده اتحادیه اروپا (GDPR) گنجانده شده بود، اتخاذ شد.

Garante چندین نکته حیاتی را مطرح کرد:

  • فقدان مبنای قانونی برای جمع‌آوری داده‌ها: نگرانی اصلی، حجم عظیم داده‌های شخصی بود که ادعا می‌شد توسط OpenAI برای آموزش الگوریتم‌های زیربنایی ChatGPT جمع‌آوری شده است. مقام ایتالیایی توجیه قانونی این جمع‌آوری و پردازش در مقیاس بزرگ را زیر سوال برد، به ویژه اینکه آیا کاربران رضایت آگاهانه مطابق با الزامات GDPR را داده بودند یا خیر. عدم شفافیت در مورد مجموعه داده‌های خاص مورد استفاده و روش‌های به کار گرفته شده، این نگرانی‌ها را تشدید کرد.
  • مکانیسم‌های ناکافی تأیید سن: Garante بر فقدان سیستم‌های قوی برای جلوگیری از دسترسی افراد زیر سن قانونی به این سرویس تأکید کرد. با توجه به توانایی ChatGPT در تولید محتوا تقریباً در هر موضوعی، نگرانی‌های قابل توجهی در مورد قرار دادن کاربران زیر سن قانونی در معرض مطالب بالقوه نامناسب یا مضر وجود داشت. GDPR محدودیت‌های شدیدی برای پردازش داده‌های کودکان قائل است و ناتوانی مشهود در اجرای موثر دروازه‌های سنی، نقض جدی تلقی شد.
  • دقت اطلاعات و پتانسیل اطلاعات نادرست: اگرچه مبنای اصلی قانونی برای ممنوعیت نبود، اما این مقام همچنین به پتانسیل چت‌بات‌های هوش مصنوعی برای ارائه اطلاعات نادرست در مورد افراد اشاره کرد که به طور بالقوه می‌تواند منجر به آسیب به شهرت یا انتشار اکاذیب شود.

OpenAI به طور فعال برای رسیدگی به خواسته‌های Garante پاسخ داد. این شرکت برای افزایش شفافیت در مورد شیوه‌های پردازش داده‌های خود تلاش کرد و توضیحات واضح‌تری در مورد نحوه استفاده از اطلاعات کاربران ارائه داد. به طور حیاتی، اقدامات تأیید سن آشکارتر را در زمان ثبت‌نام اجرا کرد و ابزارهایی را معرفی کرد که به کاربران اروپایی کنترل بیشتری بر داده‌های خود می‌دهد، از جمله گزینه‌هایی برای انصراف از استفاده از تعاملاتشان برای آموزش مدل. پس از این تنظیمات، که هدف آن همسوسازی بیشتر سرویس با اصول GDPR بود، ممنوعیت تقریباً یک ماه بعد برداشته شد. محاصره موقت ایتالیا به عنوان یادآوری قدرتمندی برای شرکت‌های فناوری در سراسر جهان عمل کرد که پیمایش در محیط نظارتی اروپا، به ویژه در مورد حریم خصوصی داده‌ها، نیازمند توجه دقیق به انطباق است. این امر قدرت مقامات حفاظت از داده در اتحادیه اروپا را برای اجرای مقررات و مطالبه پاسخگویی حتی از بزرگترین بازیگران فناوری جهانی برجسته کرد و یک سابقه بالقوه برای سایر کشورهایی که با نگرانی‌های مشابه دست و پنجه نرم می‌کنند، ایجاد کرد.

باغ محصور چین: پرورش هوش مصنوعی داخلی تحت نظارت شدید

رویکرد چین به هوش مصنوعی محاوره‌ای عمیقاً با استراتژی دیرینه این کشور در حفظ کنترل شدید بر جریان اطلاعات در داخل مرزهایش در هم تنیده است. این کشور تحت یک سیستم پیچیده سانسور اینترنت، که اغلب به عنوان “دیوار آتش بزرگ” (Great Firewall) شناخته می‌شود، عمل می‌کند که دسترسی به بسیاری از وب‌سایت‌ها و خدمات آنلاین خارجی را مسدود می‌کند. بنابراین، جای تعجب نبود که چت‌بات‌های هوش مصنوعی محبوب جهانی مانند ChatGPT به سرعت در سرزمین اصلی چین غیرقابل دسترس شدند.

منطق این امر فراتر از سانسور ساده است؛ این نشان‌دهنده یک استراتژی چند وجهی دولتی است:

  • جلوگیری از اطلاعات و مخالفت‌های غیرمجاز: محرک اصلی، نگرانی دولت از این است که مدل‌های هوش مصنوعی کنترل‌نشده، که بر روی مجموعه داده‌های وسیع از اینترنت جهانی آموزش دیده‌اند، می‌توانند اطلاعات یا دیدگاه‌هایی را منتشر کنند که با روایت رسمی حزب کمونیست چین در تضاد است. ترس‌های عمیقی وجود دارد که چنین ابزارهایی می‌توانند برای سازماندهی مخالفان، گسترش ایدئولوژی‌های “مضر” یا دور زدن مکانیسم‌های سانسور دولتی مورد استفاده قرار گیرند و در نتیجه ثبات اجتماعی و کنترل سیاسی را تضعیف کنند.
  • مبارزه با اطلاعات نادرست (تعریف شده توسط دولت): در حالی که کشورهای غربی نگران تولید اطلاعات نادرست توسط هوش مصنوعی هستند، نگرانی پکن بر اطلاعاتی متمرکز است که از نظر سیاسی حساس یا بی‌ثبات‌کننده تلقی می‌شوند. یک هوش مصنوعی که خارج از نظارت دولت عمل می‌کند، به عنوان یک ناقل غیرقابل پیش‌بینی برای چنین محتوایی دیده می‌شود.
  • ترویج حاکمیت فناورانه: چین آرزو دارد که به یک رهبر جهانی در هوش مصنوعی تبدیل شود. مسدود کردن خدمات هوش مصنوعی خارجی، بازاری محافظت‌شده برای جایگزین‌های داخلی ایجاد می‌کند. این استراتژی رشد قهرمانان هوش مصنوعی بومی را تشویق می‌کند و تضمین می‌کند که توسعه و استقرار این فناوری حیاتی با منافع ملی و چارچوب‌های نظارتی همسو باشد. شرکت‌هایی مانند Baidu با Ernie Bot خود، Alibaba و Tencent فعالانه در حال توسعه LLMهای متناسب با بازار چین و سازگار با دستورالعمل‌های دولتی هستند.
  • امنیت داده‌ها: داخلی نگه داشتن توسعه هوش مصنوعی همچنین با قوانین امنیت داده‌های به طور فزاینده سختگیرانه چین همسو است که بر انتقال فرامرزی داده‌ها حاکم است و اپراتورهای زیرساخت اطلاعات حیاتی را ملزم به ذخیره داده‌ها به صورت محلی می‌کند. اتکا به هوش مصنوعی داخلی، وابستگی به پلتفرم‌های خارجی را که ممکن است داده‌های کاربران چینی را به خارج از کشور منتقل کنند، کاهش می‌دهد.

بنابراین، “ممنوعیت” چین کمتر به معنای رد خود فناوری هوش مصنوعی است و بیشتر به معنای تضمین توسعه و کاربرد آن در یک اکوسیستم تحت کنترل دولت است. هدف، بهره‌برداری از مزایای اقتصادی و فناورانه هوش مصنوعی ضمن کاهش خطرات سیاسی و اجتماعی درک شده مرتبط با دسترسی نامحدود به پلتفرم‌های خارجی است. این رویکرد چشم‌انداز منحصر به فردی از هوش مصنوعی را پرورش می‌دهد که در آن نوآوری تشویق می‌شود، اما تنها در مرزهای مشخص تعیین شده توسط دولت.

پرده آهنین دیجیتال روسیه: امنیت ملی و کنترل اطلاعات

موضع روسیه در قبال هوش مصنوعی محاوره‌ای خارجی، منعکس‌کننده موقعیت ژئوپلیتیکی گسترده‌تر و تمرکز عمیق‌تر آن بر امنیت ملی و حاکمیت فناورانه است، به ویژه در بحبوحه تنش‌های فزاینده با کشورهای غربی. اگرچه همیشه به شکل ممنوعیت‌های صریح و گسترده مانند اقدام موقت ایتالیا ظاهر نمی‌شود، دسترسی به پلتفرم‌هایی مانند ChatGPT محدود یا غیرقابل اعتماد بوده است و دولت فعالانه جایگزین‌های داخلی را ترویج می‌کند.

انگیزه‌های کلیدی پشت محدودیت‌های روسیه عبارتند از:

  • نگرانی‌های امنیت ملی: دولت روسیه بی‌اعتمادیقابل توجهی نسبت به پلتفرم‌های فناوری خارجی، به ویژه آنهایی که از کشورهای متخاصم تلقی می‌شوند، دارد. ترس‌های برجسته‌ای وجود دارد که چت‌بات‌های هوش مصنوعی پیچیده توسعه‌یافته در خارج از کشور می‌توانند برای جاسوسی، جمع‌آوری اطلاعات یا عملیات جنگ سایبری علیه منافع روسیه مورد سوء استفاده قرار گیرند. پتانسیل این ابزارها برای دسترسی به اطلاعات حساس یا دستکاری توسط بازیگران خارجی، یک نگرانی امنیتی اولیه است.
  • مبارزه با نفوذ خارجی و “جنگ اطلاعاتی”: مسکو کنترل اطلاعات را به عنوان یک عنصر حیاتی امنیت ملی می‌داند. چت‌بات‌های هوش مصنوعی خارجی به عنوان مجاری بالقوه برای تبلیغات غربی، “اخبار جعلی” یا روایت‌هایی با هدف بی‌ثبات کردن وضعیت سیاسی یا دستکاری افکار عمومی در روسیه دیده می‌شوند. محدود کردن دسترسی یک اقدام دفاعی در برابر کمپین‌های جنگ اطلاعاتی درک شده است.
  • ترویج فناوری داخلی: مشابه چین، روسیه در حال پیگیری استراتژی “حاکمیت دیجیتال” با هدف کاهش وابستگی خود به فناوری خارجی است. این شامل سرمایه‌گذاری قابل توجه در توسعه جایگزین‌های بومی در بخش‌های مختلف فناوری، از جمله هوش مصنوعی است. Yandex، که اغلب “گوگل روسیه” نامیده می‌شود، دستیار هوش مصنوعی خود، Alice (Alisa) و سایر مدل‌های زبان بزرگ را توسعه داده است. ترویج این پلتفرم‌های داخلی، نظارت بیشتر دولت را تضمین می‌کند و توسعه هوش مصنوعی را با اهداف استراتژیک ملی همسو می‌کند.
  • کنترل نظارتی: با محدود کردن هوش مصنوعی خارجی و طرفداری از گزینه‌های داخلی، دولت روسیه می‌تواند مقررات خود را در مورد تعدیل محتوا، ذخیره‌سازی داده‌ها (اغلب نیازمند بومی‌سازی داده‌ها در روسیه) و همکاری با سرویس‌های امنیتی دولتی آسان‌تر اعمال کند. شرکت‌های داخلی عموماً نسبت به همتایان خارجی خود در برابر فشار دولت و الزامات قانونی آسیب‌پذیرتر هستند.

بنابراین، محدودیت‌های هوش مصنوعی خارجی در روسیه بخشی از الگوی بزرگ‌تری برای اعمال کنترل بر حوزه دیجیتال است که ناشی از ترکیبی از اضطراب‌های امنیتی، اهداف سیاسی و تمایل به پرورش یک بخش فناوری خودکفا و محافظت شده از فشارها و تأثیرات خارجی است. این محیط به نفع ارائه‌دهندگان فناوری مورد تأیید دولت یا وابسته به دولت است و چالش‌هایی را برای پلتفرم‌های هوش مصنوعی بین‌المللی که به دنبال فعالیت در این کشور هستند، ایجاد می‌کند.

رویکرد محتاطانه ایران: محافظت در برابر ایدئولوژی‌های خارجی

تنظیم هوش مصنوعی در ایران، از جمله چت‌بات‌های محاوره‌ای، به شدت تحت تأثیر سیستم سیاسی منحصر به فرد و روابط اغلب خصمانه آن با کشورهای غربی است. دولت کنترل شدیدی بر دسترسی به اینترنت و محتوا اعمال می‌کند و فناوری تنظیم‌نشده را تهدیدی بالقوه برای اقتدار و ارزش‌های فرهنگی خود می‌داند.

محدودیت‌های مربوط به چت‌بات‌های هوش مصنوعی خارجی از چندین عامل مرتبط ناشی می‌شود:

  • جلوگیری از نفوذ غرب و “تهاجم فرهنگی”: رهبری ایران عمیقاً نگران پتانسیل فناوری‌های خارجی برای خدمت به عنوان کانال‌هایی برای ایدئولوژی‌های فرهنگی و سیاسی غربی است که آن را تضعیف‌کننده ارزش‌های اسلامی و اصول جمهوری اسلامی می‌داند. دسترسی نامحدود به چت‌بات‌های هوش مصنوعی آموزش‌دیده بر روی داده‌های جهانی، به عنوان خطری برای قرار دادن شهروندان، به ویژه جوانان، در معرض ایده‌ها و دیدگاه‌های بالقوه “برانداز” یا “غیراسلامی” تلقی می‌شود.
  • دور زدن سانسور دولتی: ابزارهای پیچیده هوش مصنوعی به طور بالقوه می‌توانند راه‌هایی را برای دور زدن مکانیسم‌های گسترده فیلترینگ و سانسور اینترنت که توسط دولت ایران به کار گرفته می‌شود، به کاربران ارائه دهند. توانایی دسترسی آزادانه به اطلاعات یا تولید محتوا از طریق هوش مصنوعی می‌تواند کنترل دولت بر چشم‌انداز اطلاعات را به چالش بکشد.
  • حفظ ثبات سیاسی: مشابه چین و روسیه، ایران جریان اطلاعات کنترل‌نشده را به عنوان یک کاتالیزور بالقوه برای ناآرامی‌های اجتماعی یا مخالفت‌های سیاسی می‌داند. چت‌بات‌های هوش مصنوعی، با توانایی خود در تولید متن متقاعدکننده و مشارکت در گفتگو، به عنوان ابزارهایی دیده می‌شوند که به طور بالقوه می‌توانند برای سازماندهی اعتراضات یا گسترش احساسات ضد دولتی مورد استفاده قرار گیرند.
  • ترویج جایگزین‌های مورد تأیید دولت: اگرچه شاید به اندازه چین یا روسیه پیشرفته نباشد، اما علاقه به توسعه یا تأیید فناوری‌های هوش مصنوعی وجود دارد که با مقررات دولتی و الزامات ایدئولوژیک همسو باشند. اجازه دادن تنها به مدل‌های هوش مصنوعی تأیید شده تضمین می‌کند که این فناوری در مرزهای تعیین شده توسط دولت عمل می‌کند و قوانین یا هنجارهای فرهنگی ایران را نقض نمی‌کند.

رویکرد ایران با سوء ظن عمیق نسبت به تأثیر بالقوه فناوری خارجی بر امور داخلی و چارچوب ایدئولوژیک آن مشخص می‌شود. تنظیم چت‌بات‌های هوش مصنوعی کمتر به نگرانی‌های فنی مانند حریم خصوصی داده‌ها (اگرچه ممکن است وجود داشته باشند) مربوط می‌شود و بیشتر به حفظ کنترل سیاسی، پاسداری از ارزش‌های فرهنگی و مذهبی خاص و مصون نگه داشتن جمعیت از تأثیرات خارجی که توسط دولت نامطلوب تلقی می‌شوند، می‌پردازد. دسترسی احتمالاً فقط برای آن دسته از سیستم‌های هوش مصنوعی مجاز است که می‌توانند نظارت و کنترل شوند و اطمینان حاصل شود که نظم مستقر را به چالش نمی‌کشند.

مانع مطلق کره شمالی: انزوای اطلاعاتی به هوش مصنوعی گسترش یافت

کره شمالی مسلماً افراطی‌ترین نمونه کنترل دولتی بر اطلاعات و فناوری است و موضع آن در قبال هوش مصنوعی، به ویژه چت‌بات‌های قابل دسترس جهانی، این واقعیت را منعکس می‌کند. این کشور تحت یک محاصره اطلاعاتی عمل می‌کند، با دسترسی به اینترنت به شدت محدود برای اکثریت قریب به اتفاق جمعیت آن. دسترسی معمولاً به یک گروه کوچک و به شدت گزینش شده محدود می‌شود و حتی در آن صورت نیز اغلب به یک اینترانت تحت کنترل دولت (Kwangmyong) محدود می‌شود.

در این زمینه، مفهوم ممنوعیت چت‌بات‌های هوش مصنوعی خارجی تقریباً زائد است، زیرا زیرساخت‌ها و دسترسی اساسی مورد نیاز برای استفاده از آنها برای شهروندان عادی وجود ندارد. با این حال، اصل اساسی روشن و مطلق است:

  • کنترل کامل اطلاعات: هدف اصلی رژیم کره شمالی حفظ کنترل مطلق بر اطلاعاتی است که شهروندانش دریافت می‌کنند. هر فناوری که به طور بالقوه بتواند اطلاعات، دیدگاه‌ها یا کانال‌های ارتباطی خارجی را معرفی کند، به عنوان یک تهدید وجودی برای ثبات رژیم و کیش شخصیت آن تلقی می‌شود. چت‌بات‌های هوش مصنوعی خارجی، که بر روی داده‌های جهانی آموزش دیده‌اند و قادر به ارائه اطلاعات فیلتر نشده هستند، نقطه مقابل این کنترل را نشان می‌دهند.
  • جلوگیری از قرار گرفتن در معرض دنیای خارج: دولت فعالانه تلاش می‌کند تا از آگاهی مردم خود در مورد جهان خارج از کره شمالی، به ویژه در مورد زندگی در کره جنوبی و کشورهای غربی، جلوگیری کند. چت‌بات‌های هوش مصنوعی به راحتی می‌توانند چنین اطلاعاتی را ارائه دهند و به طور بالقوه تبلیغات دولتی را تضعیف کرده و نارضایتی را تقویت کنند.
  • حفظ خلوص ایدئولوژیک: رژیم پایبندی شدید به ایدئولوژی جوچه (Juche) خود را اعمال می‌کند. هوش مصنوعی خارجی، آغشته به دیدگاه‌های متنوع جهانی، به عنوان ناقلی برای آلودگی ایدئولوژیک دیده می‌شود که می‌تواند روایت و اقتدار دولت را به چالش بکشد.
  • نگرانی‌های امنیتی: فراتر از کنترل اطلاعات، نگرانی‌های امنیتی عمیقی نیز در مورد استفاده از هوش مصنوعی خارجی برای جاسوسی یا تسهیل ارتباطاتی که می‌تواند رژیم را تهدید کند، وجود خواهد داشت.

برخلاف سایر کشورهایی که ممکن است هوش مصنوعی را تنظیم، محدود یا به طور انتخابی ممنوع کنند، رویکرد کره شمالی یکی از طرد تقریباً کامل به عنوان بخشی از سیاست گسترده‌تر انزوای شدید آن است. در حالی که دولت ممکن است در حال بررسی هوش مصنوعی برای کاربردهای خاص و کنترل شده داخلی (به عنوان مثال، نظامی، نظارتی) باشد، ایده اجازه دسترسی گسترده به پلتفرم‌های هوش مصنوعی محاوره‌ای خارجی اساساً با ماهیت رژیم ناسازگار است. این نشان‌دهنده شدیدترین نقطه در طیف جهانی است، جایی که خطرات درک شده اطلاعات کنترل‌نشده بسیار بیشتر از هرگونه مزایای بالقوه دسترسی آزاد به چنین فناوری است.

روایت در حال آشکار شدن: مقررات، نوآوری و مرز هوش مصنوعی

اقدامات متنوعی که توسط کشورهایی مانند ایتالیا، چین، روسیه، ایران و کره شمالی انجام شده است، نشان می‌دهد که واکنش جهانی به هوش مصنوعی محاوره‌ای به دور از یکنواختی است. رویکرد هر کشور بازتابی منحصر به فرد از سیستم سیاسی، ارزش‌های فرهنگی، جاه‌طلبی‌های اقتصادی و تهدیدات امنیت ملی درک شده آن است. ممنوعیت موقت ایتالیا، مبتنی بر قانون حریم خصوصی داده‌های اتحادیه اروپا، قدرت نظارتی اعمال شده توسط چارچوب‌های قانونی مستقر در جوامع دموکراتیک را برجسته می‌کند. چین و روسیه مدلی را نشان می‌دهند که در آن پیشرفت فناورانه با جدیت دنبال می‌شود، اما به شدت در پارامترهای تحت کنترل دولت، با اولویت دادن به ثبات، کنترل اطلاعات و پرورش صنایع داخلی محافظت شده از رقابت خارجی. تمرکز ایران به شدت بر حفظ ایدئولوژیک و محافظت در برابر دخالت خارجی درک شده است. کره شمالی نقطه پایانی افراطی را نشان می‌دهد، جایی که انزوای اطلاعاتی یک محاصره تقریباً کامل در برابر چنین فناوری‌هایی را دیکته می‌کند.

این پاسخ‌های متفاوت بر یک تنش اساسی در قلب انقلاب هوش مصنوعی تأکید می‌کند: تعادل ظریف و اغلب بحث‌برانگیز بین پرورش نوآوری و کاهش خطرات بالقوه. دولت‌ها در سراسر جهان با سوالات عمیقی دست و پنجه نرم می‌کنند:

  • چگونه می‌توان از مزایای اقتصادی و اجتماعی هوش مصنوعی به طور مسئولانه بهره‌برداری کرد؟
  • چه پادمان‌هایی برای محافظت از حریم خصوصی فردی در عصر جمع‌آوری انبوه داده‌ها ضروری است؟
  • چگونه می‌توان با گسترش اطلاعات نادرست و گمراه‌کننده تولید شده توسط هوش مصنوعی بدون خفه کردن آزادی بیان مقابله کرد؟
  • هوش مصنوعی چه نقشی باید در امنیت ملی ایفا کند و چگونه می‌توان خطرات مرتبط را مدیریت کرد؟
  • آیا مقررات سختگیرانه به طور ناخواسته نوآوری را که به دنبال هدایت آن هستند خفه می‌کند و به طور بالقوه باعث عقب ماندن کشورها در یک رقابت فناورانه حیاتی می‌شود؟

با پیچیده‌تر شدن و ادغام بیشتر مدل‌های هوش مصنوعی در جنبه‌های مختلف زندگی، این سوالات تنها فوری‌تر خواهند شد. ما احتمالاً شاهد مراحل اولیه یک فرآیند طولانی و پیچیده توسعه هنجارهای جهانی و مقررات ملی برای هوش مصنوعی هستیم. مجموعه فعلی ممنوعیت‌ها و محدودیت‌ها ممکن است به چارچوب‌های نظارتی ظریف‌تری تبدیل شود، شاید شامل ارزیابی‌های مبتنی بر ریسک، الزامات شفافیت اجباری یا تلاش‌های همکاری بین‌المللی باشد. برعکس، تکه‌تکه شدن ژئوپلیتیکی و اولویت‌های ملی واگرا می‌تواند منجر به یک چشم‌انداز جهانی هوش مصنوعی به طور فزاینده بالکانیزه شود. مسیر پیش رو نامشخص باقی می‌ماند، اما تصمیماتی که امروز توسط دولت‌ها در مورد هوش مصنوعی محاوره‌ای گرفته می‌شود، زمینه را برای رابطه آینده بین بشریت و مخلوقات به طور فزاینده هوشمند آن فراهم می‌کند. گفتگوی پیرامون حاکمیت هوش مصنوعی صرفاً یک بحث فنی یا حقوقی نیست؛ این گفتگو در مورد قدرت، کنترل، ارزش‌های اجتماعی و آینده خود اطلاعات در عصر دیجیتال است.