ظهور سریع پلتفرمهای پیچیده هوش مصنوعی محاورهای بدون شک تعاملات دیجیتال را بازآفرینی کرده و قابلیتهای بیسابقهای در بازیابی اطلاعات، تولید محتوا و ارتباطات خودکار ارائه داده است. ابزارهایی مانند ChatGPT و معاصرانش تخیل جهانی را به تسخیر خود درآوردهاند و قدرت مدلهای زبان بزرگ (LLMs) را در تقلید از گفتگوی شبهانسانی و انجام وظایف پیچیده نشان دادهاند. با این حال، این جهش فناوری با استقبال جهانی مواجه نشده است. در عوض، تعداد فزایندهای از کشورها در حال ایجاد موانع، اجرای ممنوعیتهای کامل یا مقررات سختگیرانه بر روی این سیستمهای قدرتمند هوش مصنوعی هستند. این واکنش ناشی از مجموعهای پیچیده از نگرانیهاست که اضطرابها در مورد حریم خصوصی فردی، سلاحسازی بالقوه اطلاعات نادرست، تهدیدات علیه امنیت ملی و تمایل به حفظ کنترل سیاسی و ایدئولوژیک را در هم میآمیزد. درک انگیزههای متنوع پشت این محدودیتها برای فهم چشمانداز جهانی در حال تحول حاکمیت هوش مصنوعی حیاتی است. تصمیماتی که امروز در پایتختهای سراسر جهان گرفته میشود، مسیر توسعه و استقرار هوش مصنوعی را به طور قابل توجهی شکل خواهد داد و مجموعهای ناهمگون از دسترسی و کنترل ایجاد میکند که منعکسکننده اولویتها و ترسهای عمیق ملی است.
موضع ایتالیا: الزامات حریم خصوصی باعث توقف موقت شد
در اقدامی که در سراسر جهان غرب بازتاب یافت، ایتالیا به یکی از پیشگامان قابل توجه در اتخاذ تدابیر محدودکننده علیه یک پلتفرم بزرگ هوش مصنوعی مولد تبدیل شد. در مارس 2023، سازمان حفاظت از دادههای ایتالیا، موسوم به Garante per la protezione dei dati personali، دستور تعلیق موقت سرویس ChatGPT شرکت OpenAI را در داخل مرزهای این کشور صادر کرد. این تصمیم ریشه در ترسهای انتزاعی نداشت، بلکه بر اساس اتهامات مشخص عدم انطباق با مقررات سختگیرانه حریم خصوصی دادهها که در مقررات عمومی حفاظت از داده اتحادیه اروپا (GDPR) گنجانده شده بود، اتخاذ شد.
Garante چندین نکته حیاتی را مطرح کرد:
- فقدان مبنای قانونی برای جمعآوری دادهها: نگرانی اصلی، حجم عظیم دادههای شخصی بود که ادعا میشد توسط OpenAI برای آموزش الگوریتمهای زیربنایی ChatGPT جمعآوری شده است. مقام ایتالیایی توجیه قانونی این جمعآوری و پردازش در مقیاس بزرگ را زیر سوال برد، به ویژه اینکه آیا کاربران رضایت آگاهانه مطابق با الزامات GDPR را داده بودند یا خیر. عدم شفافیت در مورد مجموعه دادههای خاص مورد استفاده و روشهای به کار گرفته شده، این نگرانیها را تشدید کرد.
- مکانیسمهای ناکافی تأیید سن: Garante بر فقدان سیستمهای قوی برای جلوگیری از دسترسی افراد زیر سن قانونی به این سرویس تأکید کرد. با توجه به توانایی ChatGPT در تولید محتوا تقریباً در هر موضوعی، نگرانیهای قابل توجهی در مورد قرار دادن کاربران زیر سن قانونی در معرض مطالب بالقوه نامناسب یا مضر وجود داشت. GDPR محدودیتهای شدیدی برای پردازش دادههای کودکان قائل است و ناتوانی مشهود در اجرای موثر دروازههای سنی، نقض جدی تلقی شد.
- دقت اطلاعات و پتانسیل اطلاعات نادرست: اگرچه مبنای اصلی قانونی برای ممنوعیت نبود، اما این مقام همچنین به پتانسیل چتباتهای هوش مصنوعی برای ارائه اطلاعات نادرست در مورد افراد اشاره کرد که به طور بالقوه میتواند منجر به آسیب به شهرت یا انتشار اکاذیب شود.
OpenAI به طور فعال برای رسیدگی به خواستههای Garante پاسخ داد. این شرکت برای افزایش شفافیت در مورد شیوههای پردازش دادههای خود تلاش کرد و توضیحات واضحتری در مورد نحوه استفاده از اطلاعات کاربران ارائه داد. به طور حیاتی، اقدامات تأیید سن آشکارتر را در زمان ثبتنام اجرا کرد و ابزارهایی را معرفی کرد که به کاربران اروپایی کنترل بیشتری بر دادههای خود میدهد، از جمله گزینههایی برای انصراف از استفاده از تعاملاتشان برای آموزش مدل. پس از این تنظیمات، که هدف آن همسوسازی بیشتر سرویس با اصول GDPR بود، ممنوعیت تقریباً یک ماه بعد برداشته شد. محاصره موقت ایتالیا به عنوان یادآوری قدرتمندی برای شرکتهای فناوری در سراسر جهان عمل کرد که پیمایش در محیط نظارتی اروپا، به ویژه در مورد حریم خصوصی دادهها، نیازمند توجه دقیق به انطباق است. این امر قدرت مقامات حفاظت از داده در اتحادیه اروپا را برای اجرای مقررات و مطالبه پاسخگویی حتی از بزرگترین بازیگران فناوری جهانی برجسته کرد و یک سابقه بالقوه برای سایر کشورهایی که با نگرانیهای مشابه دست و پنجه نرم میکنند، ایجاد کرد.
باغ محصور چین: پرورش هوش مصنوعی داخلی تحت نظارت شدید
رویکرد چین به هوش مصنوعی محاورهای عمیقاً با استراتژی دیرینه این کشور در حفظ کنترل شدید بر جریان اطلاعات در داخل مرزهایش در هم تنیده است. این کشور تحت یک سیستم پیچیده سانسور اینترنت، که اغلب به عنوان “دیوار آتش بزرگ” (Great Firewall) شناخته میشود، عمل میکند که دسترسی به بسیاری از وبسایتها و خدمات آنلاین خارجی را مسدود میکند. بنابراین، جای تعجب نبود که چتباتهای هوش مصنوعی محبوب جهانی مانند ChatGPT به سرعت در سرزمین اصلی چین غیرقابل دسترس شدند.
منطق این امر فراتر از سانسور ساده است؛ این نشاندهنده یک استراتژی چند وجهی دولتی است:
- جلوگیری از اطلاعات و مخالفتهای غیرمجاز: محرک اصلی، نگرانی دولت از این است که مدلهای هوش مصنوعی کنترلنشده، که بر روی مجموعه دادههای وسیع از اینترنت جهانی آموزش دیدهاند، میتوانند اطلاعات یا دیدگاههایی را منتشر کنند که با روایت رسمی حزب کمونیست چین در تضاد است. ترسهای عمیقی وجود دارد که چنین ابزارهایی میتوانند برای سازماندهی مخالفان، گسترش ایدئولوژیهای “مضر” یا دور زدن مکانیسمهای سانسور دولتی مورد استفاده قرار گیرند و در نتیجه ثبات اجتماعی و کنترل سیاسی را تضعیف کنند.
- مبارزه با اطلاعات نادرست (تعریف شده توسط دولت): در حالی که کشورهای غربی نگران تولید اطلاعات نادرست توسط هوش مصنوعی هستند، نگرانی پکن بر اطلاعاتی متمرکز است که از نظر سیاسی حساس یا بیثباتکننده تلقی میشوند. یک هوش مصنوعی که خارج از نظارت دولت عمل میکند، به عنوان یک ناقل غیرقابل پیشبینی برای چنین محتوایی دیده میشود.
- ترویج حاکمیت فناورانه: چین آرزو دارد که به یک رهبر جهانی در هوش مصنوعی تبدیل شود. مسدود کردن خدمات هوش مصنوعی خارجی، بازاری محافظتشده برای جایگزینهای داخلی ایجاد میکند. این استراتژی رشد قهرمانان هوش مصنوعی بومی را تشویق میکند و تضمین میکند که توسعه و استقرار این فناوری حیاتی با منافع ملی و چارچوبهای نظارتی همسو باشد. شرکتهایی مانند Baidu با Ernie Bot خود، Alibaba و Tencent فعالانه در حال توسعه LLMهای متناسب با بازار چین و سازگار با دستورالعملهای دولتی هستند.
- امنیت دادهها: داخلی نگه داشتن توسعه هوش مصنوعی همچنین با قوانین امنیت دادههای به طور فزاینده سختگیرانه چین همسو است که بر انتقال فرامرزی دادهها حاکم است و اپراتورهای زیرساخت اطلاعات حیاتی را ملزم به ذخیره دادهها به صورت محلی میکند. اتکا به هوش مصنوعی داخلی، وابستگی به پلتفرمهای خارجی را که ممکن است دادههای کاربران چینی را به خارج از کشور منتقل کنند، کاهش میدهد.
بنابراین، “ممنوعیت” چین کمتر به معنای رد خود فناوری هوش مصنوعی است و بیشتر به معنای تضمین توسعه و کاربرد آن در یک اکوسیستم تحت کنترل دولت است. هدف، بهرهبرداری از مزایای اقتصادی و فناورانه هوش مصنوعی ضمن کاهش خطرات سیاسی و اجتماعی درک شده مرتبط با دسترسی نامحدود به پلتفرمهای خارجی است. این رویکرد چشمانداز منحصر به فردی از هوش مصنوعی را پرورش میدهد که در آن نوآوری تشویق میشود، اما تنها در مرزهای مشخص تعیین شده توسط دولت.
پرده آهنین دیجیتال روسیه: امنیت ملی و کنترل اطلاعات
موضع روسیه در قبال هوش مصنوعی محاورهای خارجی، منعکسکننده موقعیت ژئوپلیتیکی گستردهتر و تمرکز عمیقتر آن بر امنیت ملی و حاکمیت فناورانه است، به ویژه در بحبوحه تنشهای فزاینده با کشورهای غربی. اگرچه همیشه به شکل ممنوعیتهای صریح و گسترده مانند اقدام موقت ایتالیا ظاهر نمیشود، دسترسی به پلتفرمهایی مانند ChatGPT محدود یا غیرقابل اعتماد بوده است و دولت فعالانه جایگزینهای داخلی را ترویج میکند.
انگیزههای کلیدی پشت محدودیتهای روسیه عبارتند از:
- نگرانیهای امنیت ملی: دولت روسیه بیاعتمادیقابل توجهی نسبت به پلتفرمهای فناوری خارجی، به ویژه آنهایی که از کشورهای متخاصم تلقی میشوند، دارد. ترسهای برجستهای وجود دارد که چتباتهای هوش مصنوعی پیچیده توسعهیافته در خارج از کشور میتوانند برای جاسوسی، جمعآوری اطلاعات یا عملیات جنگ سایبری علیه منافع روسیه مورد سوء استفاده قرار گیرند. پتانسیل این ابزارها برای دسترسی به اطلاعات حساس یا دستکاری توسط بازیگران خارجی، یک نگرانی امنیتی اولیه است.
- مبارزه با نفوذ خارجی و “جنگ اطلاعاتی”: مسکو کنترل اطلاعات را به عنوان یک عنصر حیاتی امنیت ملی میداند. چتباتهای هوش مصنوعی خارجی به عنوان مجاری بالقوه برای تبلیغات غربی، “اخبار جعلی” یا روایتهایی با هدف بیثبات کردن وضعیت سیاسی یا دستکاری افکار عمومی در روسیه دیده میشوند. محدود کردن دسترسی یک اقدام دفاعی در برابر کمپینهای جنگ اطلاعاتی درک شده است.
- ترویج فناوری داخلی: مشابه چین، روسیه در حال پیگیری استراتژی “حاکمیت دیجیتال” با هدف کاهش وابستگی خود به فناوری خارجی است. این شامل سرمایهگذاری قابل توجه در توسعه جایگزینهای بومی در بخشهای مختلف فناوری، از جمله هوش مصنوعی است. Yandex، که اغلب “گوگل روسیه” نامیده میشود، دستیار هوش مصنوعی خود، Alice (Alisa) و سایر مدلهای زبان بزرگ را توسعه داده است. ترویج این پلتفرمهای داخلی، نظارت بیشتر دولت را تضمین میکند و توسعه هوش مصنوعی را با اهداف استراتژیک ملی همسو میکند.
- کنترل نظارتی: با محدود کردن هوش مصنوعی خارجی و طرفداری از گزینههای داخلی، دولت روسیه میتواند مقررات خود را در مورد تعدیل محتوا، ذخیرهسازی دادهها (اغلب نیازمند بومیسازی دادهها در روسیه) و همکاری با سرویسهای امنیتی دولتی آسانتر اعمال کند. شرکتهای داخلی عموماً نسبت به همتایان خارجی خود در برابر فشار دولت و الزامات قانونی آسیبپذیرتر هستند.
بنابراین، محدودیتهای هوش مصنوعی خارجی در روسیه بخشی از الگوی بزرگتری برای اعمال کنترل بر حوزه دیجیتال است که ناشی از ترکیبی از اضطرابهای امنیتی، اهداف سیاسی و تمایل به پرورش یک بخش فناوری خودکفا و محافظت شده از فشارها و تأثیرات خارجی است. این محیط به نفع ارائهدهندگان فناوری مورد تأیید دولت یا وابسته به دولت است و چالشهایی را برای پلتفرمهای هوش مصنوعی بینالمللی که به دنبال فعالیت در این کشور هستند، ایجاد میکند.
رویکرد محتاطانه ایران: محافظت در برابر ایدئولوژیهای خارجی
تنظیم هوش مصنوعی در ایران، از جمله چتباتهای محاورهای، به شدت تحت تأثیر سیستم سیاسی منحصر به فرد و روابط اغلب خصمانه آن با کشورهای غربی است. دولت کنترل شدیدی بر دسترسی به اینترنت و محتوا اعمال میکند و فناوری تنظیمنشده را تهدیدی بالقوه برای اقتدار و ارزشهای فرهنگی خود میداند.
محدودیتهای مربوط به چتباتهای هوش مصنوعی خارجی از چندین عامل مرتبط ناشی میشود:
- جلوگیری از نفوذ غرب و “تهاجم فرهنگی”: رهبری ایران عمیقاً نگران پتانسیل فناوریهای خارجی برای خدمت به عنوان کانالهایی برای ایدئولوژیهای فرهنگی و سیاسی غربی است که آن را تضعیفکننده ارزشهای اسلامی و اصول جمهوری اسلامی میداند. دسترسی نامحدود به چتباتهای هوش مصنوعی آموزشدیده بر روی دادههای جهانی، به عنوان خطری برای قرار دادن شهروندان، به ویژه جوانان، در معرض ایدهها و دیدگاههای بالقوه “برانداز” یا “غیراسلامی” تلقی میشود.
- دور زدن سانسور دولتی: ابزارهای پیچیده هوش مصنوعی به طور بالقوه میتوانند راههایی را برای دور زدن مکانیسمهای گسترده فیلترینگ و سانسور اینترنت که توسط دولت ایران به کار گرفته میشود، به کاربران ارائه دهند. توانایی دسترسی آزادانه به اطلاعات یا تولید محتوا از طریق هوش مصنوعی میتواند کنترل دولت بر چشمانداز اطلاعات را به چالش بکشد.
- حفظ ثبات سیاسی: مشابه چین و روسیه، ایران جریان اطلاعات کنترلنشده را به عنوان یک کاتالیزور بالقوه برای ناآرامیهای اجتماعی یا مخالفتهای سیاسی میداند. چتباتهای هوش مصنوعی، با توانایی خود در تولید متن متقاعدکننده و مشارکت در گفتگو، به عنوان ابزارهایی دیده میشوند که به طور بالقوه میتوانند برای سازماندهی اعتراضات یا گسترش احساسات ضد دولتی مورد استفاده قرار گیرند.
- ترویج جایگزینهای مورد تأیید دولت: اگرچه شاید به اندازه چین یا روسیه پیشرفته نباشد، اما علاقه به توسعه یا تأیید فناوریهای هوش مصنوعی وجود دارد که با مقررات دولتی و الزامات ایدئولوژیک همسو باشند. اجازه دادن تنها به مدلهای هوش مصنوعی تأیید شده تضمین میکند که این فناوری در مرزهای تعیین شده توسط دولت عمل میکند و قوانین یا هنجارهای فرهنگی ایران را نقض نمیکند.
رویکرد ایران با سوء ظن عمیق نسبت به تأثیر بالقوه فناوری خارجی بر امور داخلی و چارچوب ایدئولوژیک آن مشخص میشود. تنظیم چتباتهای هوش مصنوعی کمتر به نگرانیهای فنی مانند حریم خصوصی دادهها (اگرچه ممکن است وجود داشته باشند) مربوط میشود و بیشتر به حفظ کنترل سیاسی، پاسداری از ارزشهای فرهنگی و مذهبی خاص و مصون نگه داشتن جمعیت از تأثیرات خارجی که توسط دولت نامطلوب تلقی میشوند، میپردازد. دسترسی احتمالاً فقط برای آن دسته از سیستمهای هوش مصنوعی مجاز است که میتوانند نظارت و کنترل شوند و اطمینان حاصل شود که نظم مستقر را به چالش نمیکشند.
مانع مطلق کره شمالی: انزوای اطلاعاتی به هوش مصنوعی گسترش یافت
کره شمالی مسلماً افراطیترین نمونه کنترل دولتی بر اطلاعات و فناوری است و موضع آن در قبال هوش مصنوعی، به ویژه چتباتهای قابل دسترس جهانی، این واقعیت را منعکس میکند. این کشور تحت یک محاصره اطلاعاتی عمل میکند، با دسترسی به اینترنت به شدت محدود برای اکثریت قریب به اتفاق جمعیت آن. دسترسی معمولاً به یک گروه کوچک و به شدت گزینش شده محدود میشود و حتی در آن صورت نیز اغلب به یک اینترانت تحت کنترل دولت (Kwangmyong) محدود میشود.
در این زمینه، مفهوم ممنوعیت چتباتهای هوش مصنوعی خارجی تقریباً زائد است، زیرا زیرساختها و دسترسی اساسی مورد نیاز برای استفاده از آنها برای شهروندان عادی وجود ندارد. با این حال، اصل اساسی روشن و مطلق است:
- کنترل کامل اطلاعات: هدف اصلی رژیم کره شمالی حفظ کنترل مطلق بر اطلاعاتی است که شهروندانش دریافت میکنند. هر فناوری که به طور بالقوه بتواند اطلاعات، دیدگاهها یا کانالهای ارتباطی خارجی را معرفی کند، به عنوان یک تهدید وجودی برای ثبات رژیم و کیش شخصیت آن تلقی میشود. چتباتهای هوش مصنوعی خارجی، که بر روی دادههای جهانی آموزش دیدهاند و قادر به ارائه اطلاعات فیلتر نشده هستند، نقطه مقابل این کنترل را نشان میدهند.
- جلوگیری از قرار گرفتن در معرض دنیای خارج: دولت فعالانه تلاش میکند تا از آگاهی مردم خود در مورد جهان خارج از کره شمالی، به ویژه در مورد زندگی در کره جنوبی و کشورهای غربی، جلوگیری کند. چتباتهای هوش مصنوعی به راحتی میتوانند چنین اطلاعاتی را ارائه دهند و به طور بالقوه تبلیغات دولتی را تضعیف کرده و نارضایتی را تقویت کنند.
- حفظ خلوص ایدئولوژیک: رژیم پایبندی شدید به ایدئولوژی جوچه (Juche) خود را اعمال میکند. هوش مصنوعی خارجی، آغشته به دیدگاههای متنوع جهانی، به عنوان ناقلی برای آلودگی ایدئولوژیک دیده میشود که میتواند روایت و اقتدار دولت را به چالش بکشد.
- نگرانیهای امنیتی: فراتر از کنترل اطلاعات، نگرانیهای امنیتی عمیقی نیز در مورد استفاده از هوش مصنوعی خارجی برای جاسوسی یا تسهیل ارتباطاتی که میتواند رژیم را تهدید کند، وجود خواهد داشت.
برخلاف سایر کشورهایی که ممکن است هوش مصنوعی را تنظیم، محدود یا به طور انتخابی ممنوع کنند، رویکرد کره شمالی یکی از طرد تقریباً کامل به عنوان بخشی از سیاست گستردهتر انزوای شدید آن است. در حالی که دولت ممکن است در حال بررسی هوش مصنوعی برای کاربردهای خاص و کنترل شده داخلی (به عنوان مثال، نظامی، نظارتی) باشد، ایده اجازه دسترسی گسترده به پلتفرمهای هوش مصنوعی محاورهای خارجی اساساً با ماهیت رژیم ناسازگار است. این نشاندهنده شدیدترین نقطه در طیف جهانی است، جایی که خطرات درک شده اطلاعات کنترلنشده بسیار بیشتر از هرگونه مزایای بالقوه دسترسی آزاد به چنین فناوری است.
روایت در حال آشکار شدن: مقررات، نوآوری و مرز هوش مصنوعی
اقدامات متنوعی که توسط کشورهایی مانند ایتالیا، چین، روسیه، ایران و کره شمالی انجام شده است، نشان میدهد که واکنش جهانی به هوش مصنوعی محاورهای به دور از یکنواختی است. رویکرد هر کشور بازتابی منحصر به فرد از سیستم سیاسی، ارزشهای فرهنگی، جاهطلبیهای اقتصادی و تهدیدات امنیت ملی درک شده آن است. ممنوعیت موقت ایتالیا، مبتنی بر قانون حریم خصوصی دادههای اتحادیه اروپا، قدرت نظارتی اعمال شده توسط چارچوبهای قانونی مستقر در جوامع دموکراتیک را برجسته میکند. چین و روسیه مدلی را نشان میدهند که در آن پیشرفت فناورانه با جدیت دنبال میشود، اما به شدت در پارامترهای تحت کنترل دولت، با اولویت دادن به ثبات، کنترل اطلاعات و پرورش صنایع داخلی محافظت شده از رقابت خارجی. تمرکز ایران به شدت بر حفظ ایدئولوژیک و محافظت در برابر دخالت خارجی درک شده است. کره شمالی نقطه پایانی افراطی را نشان میدهد، جایی که انزوای اطلاعاتی یک محاصره تقریباً کامل در برابر چنین فناوریهایی را دیکته میکند.
این پاسخهای متفاوت بر یک تنش اساسی در قلب انقلاب هوش مصنوعی تأکید میکند: تعادل ظریف و اغلب بحثبرانگیز بین پرورش نوآوری و کاهش خطرات بالقوه. دولتها در سراسر جهان با سوالات عمیقی دست و پنجه نرم میکنند:
- چگونه میتوان از مزایای اقتصادی و اجتماعی هوش مصنوعی به طور مسئولانه بهرهبرداری کرد؟
- چه پادمانهایی برای محافظت از حریم خصوصی فردی در عصر جمعآوری انبوه دادهها ضروری است؟
- چگونه میتوان با گسترش اطلاعات نادرست و گمراهکننده تولید شده توسط هوش مصنوعی بدون خفه کردن آزادی بیان مقابله کرد؟
- هوش مصنوعی چه نقشی باید در امنیت ملی ایفا کند و چگونه میتوان خطرات مرتبط را مدیریت کرد؟
- آیا مقررات سختگیرانه به طور ناخواسته نوآوری را که به دنبال هدایت آن هستند خفه میکند و به طور بالقوه باعث عقب ماندن کشورها در یک رقابت فناورانه حیاتی میشود؟
با پیچیدهتر شدن و ادغام بیشتر مدلهای هوش مصنوعی در جنبههای مختلف زندگی، این سوالات تنها فوریتر خواهند شد. ما احتمالاً شاهد مراحل اولیه یک فرآیند طولانی و پیچیده توسعه هنجارهای جهانی و مقررات ملی برای هوش مصنوعی هستیم. مجموعه فعلی ممنوعیتها و محدودیتها ممکن است به چارچوبهای نظارتی ظریفتری تبدیل شود، شاید شامل ارزیابیهای مبتنی بر ریسک، الزامات شفافیت اجباری یا تلاشهای همکاری بینالمللی باشد. برعکس، تکهتکه شدن ژئوپلیتیکی و اولویتهای ملی واگرا میتواند منجر به یک چشمانداز جهانی هوش مصنوعی به طور فزاینده بالکانیزه شود. مسیر پیش رو نامشخص باقی میماند، اما تصمیماتی که امروز توسط دولتها در مورد هوش مصنوعی محاورهای گرفته میشود، زمینه را برای رابطه آینده بین بشریت و مخلوقات به طور فزاینده هوشمند آن فراهم میکند. گفتگوی پیرامون حاکمیت هوش مصنوعی صرفاً یک بحث فنی یا حقوقی نیست؛ این گفتگو در مورد قدرت، کنترل، ارزشهای اجتماعی و آینده خود اطلاعات در عصر دیجیتال است.