شرکت نوپای چینی Sand AI ظاهراً در حال پیادهسازی اقداماتی برای مسدود کردن تصاویر خاص با حساسیت سیاسی از ابزار تولید ویدیوی آنلاین خود است. این مشاهده پس از آزمایشهای انجام شده توسط TechCrunch صورت گرفت که نشان میدهد این شرکت در حال سانسور نسخه میزبانی شده مدل خود برای جلوگیری از تصاویری است که ممکن است مقامات نظارتی چین را تحریک کند.
Sand AI اخیراً Magi-1، یک مدل تولید ویدیوی هوش مصنوعی با مجوز باز را راهاندازی کرده است. این مدل توسط شخصیتهایی مانند کای-فو لی، مدیر مؤسس Microsoft Research Asia، مورد ستایش قرار گرفته و پتانسیل و نوآوری آن در این زمینه برجسته شده است. Magi-1 با پیشبینی “خودرگرسیو” توالی فریمها برای تولید ویدیوها عمل میکند. Sand AI ادعا میکند که Magi-1 میتواند فیلمهای با کیفیت بالا و قابل کنترل تولید کند که به طور دقیق فیزیک را ثبت میکند و از دیگر مدلهای باز موجود در بازار عملکرد بهتری دارد.
مشخصات فنی و دسترسی به Magi-1
کاربرد عملی Magi-1 به دلیل نیازهای سختافزاری زیاد آن محدود است. این مدل دارای 24 میلیارد پارامتر است و برای عملکرد به چهار تا هشت پردازنده گرافیکی Nvidia H100 نیاز دارد. این امر پلتفرم Sand AI را به محل اصلی و اغلب تنها محل دسترسی برای بسیاری از کاربران برای آزمایش قابلیتهای Magi-1 تبدیل میکند.
فرآیند تولید ویدیو در این پلتفرم با یک تصویر “prompt” آغاز میشود. با این حال، همه تصاویر پذیرفته نمیشوند. تحقیقات TechCrunch نشان داد که سیستم Sand AI آپلود تصاویری از شی جین پینگ، میدان تیانآنمن و حادثه “مرد تانکی”، پرچم تایوان و نمادهای مرتبط با جنبش آزادی هنگ کنگ را مسدود میکند. به نظر میرسد این سیستم فیلتر در سطح تصویر عمل میکند، زیرا صرفاً تغییر نام فایلهای تصویر، محدودیتها را دور نمیزند.
مقایسه با دیگر پلتفرمهای هوش مصنوعی چینی
Sand AI تنها استارتاپ چینی نیست که آپلود تصاویر حساس سیاسی را به ابزارهای تولید ویدیوی خود محدود میکند. Hailuo AI، پلتفرم رسانهای مولد MiniMax مستقر در شانگهای، نیز تصاویر شی جین پینگ را مسدود میکند. با این حال، به نظر میرسد مکانیسم فیلتر Sand AI سختگیرانهتر است. به عنوان مثال، Hailuo AI تصاویر میدان تیانآنمن را مجاز میداند، در حالی که Sand AI این کار را نمیکند.
ضرورت این کنترلهای سختگیرانه ریشه در مقررات چین دارد. همانطور که Wired در ژانویه گزارش داد، مدلهای هوش مصنوعی در چین موظف به رعایت کنترلهای اطلاعاتی سختگیرانه هستند. یک قانون در سال 2023 به صراحت مدلهای هوش مصنوعی را از تولید محتوایی که “به وحدت کشور و هماهنگی اجتماعی آسیب میرساند” منع میکند. این تعریف گسترده میتواند هر محتوایی را در بر گیرد که با روایات تاریخی و سیاسی دولت مغایرت داشته باشد. برای مطابقت با این مقررات، استارتاپهای چینی اغلب از فیلترهای سطح prompt استفاده میکنند یا مدلهای خود را برای سانسور محتوای بالقوه مشکلساز تنظیم میکنند.
رویکردهای متضاد سانسور: محتوای سیاسی در مقابل محتوای مستهجن
جالب اینجاست که در حالی که مدلهای هوش مصنوعی چینی اغلب به شدت در مورد سخنرانیهای سیاسی سانسور میشوند، گاهی اوقات محدودیتهای کمتری در مورد محتوای مستهجن در مقایسه با همتایان آمریکایی خود دارند. یک گزارش اخیر توسط 404 نشان داد که بسیاری از تولیدکنندگان ویدیو از شرکتهای چینی فاقد حفاظهای اساسی برای جلوگیری از تولید تصاویر برهنه بدون رضایت هستند.
اقدامات Sand AI و دیگر شرکتهای فناوری چینی بر تعامل پیچیده بین نوآوری فناوری، کنترل سیاسی و ملاحظات اخلاقی در بخش هوش مصنوعی تأکید میکند. با ادامه تکامل فناوری هوش مصنوعی، بحث در مورد سانسور، آزادی بیان و مسئولیتهای توسعهدهندگان هوش مصنوعی بدون شک تشدید خواهد شد.
بررسی عمیقتر جنبههای فنی Magi-1
Magi-1 نشاندهنده یک پیشرفت چشمگیر در فناوری تولید ویدیو است، عمدتاً به دلیل رویکرد خودرگرسیو آن. این روش شامل پیشبینی توالی فریمها توسط مدل است که امکان خروجی ویدیویی ظریفتر و منسجمتر را فراهم میکند. این ادعا که Magi-1 میتواند فیزیک را دقیقتر از مدلهای باز رقیب ثبت کند، به ویژه قابل توجه است. این نشان میدهد که مدل قادر به تولید ویدیوهایی است که حرکات و تعاملات واقعگرایانه را به نمایش میگذارند و آن را به ابزاری ارزشمند برای کاربردهای مختلف از جمله سرگرمی، آموزش و تجسم علمی تبدیل میکند.
قابلیتهای چشمگیر مدل نیز در اندازه و الزامات سختافزاری آن منعکس شده است. Magi-1 با 24 میلیارد پارامتر، مدلی پیچیده و از نظر محاسباتی فشرده است. نیاز به چند پردازنده گرافیکی سطح بالا مانند Nvidia H100s بر منابع قابل توجه مورد نیاز برای اجرای موثر آن تأکید میکند. این محدودیت به این معنی است که در حالی که Magi-1 یک مدل منبع باز است، دسترسی آن به کاربران فردی و سازمانهای کوچکتر محدود است. بنابراین، پلتفرم Sand AI به عنوان یک دروازه مهم برای بسیاری از افراد برای تجربه و آزمایش این فناوری پیشرفته عمل میکند.
پیامدهای سانسور بر توسعه هوش مصنوعی
شیوههای سانسور اعمال شده توسط Sand AI و دیگر شرکتهای هوش مصنوعی چینی، سؤالات مهمی را در مورد آینده توسعه هوش مصنوعی و تأثیر آن بر جامعه ایجاد میکند. در حالی که نیاز به مطابقت با مقررات محلی قابل درک است، عمل سانسور محتوای حساس سیاسی میتواند پیامدهای گستردهای داشته باشد.
اولاً، میتواند نوآوری را با محدود کردن دامنه آنچه مدلهای هوش مصنوعی میتوانند ایجاد کنند، خفه کند. هنگامی که توسعهدهندگان مجبور میشوند از موضوعات یا دیدگاههای خاص اجتناب کنند، میتواند توانایی آنها را در بررسی ایدههای جدید و پیشبرد مرزهای آنچه با هوش مصنوعی امکانپذیر است، مختل کند. این میتواند در نهایت پیشرفت فناوری هوش مصنوعی را کند کرده و مزایای بالقوه آن را محدود کند.
ثانیاً، سانسور میتواند اعتماد به سیستمهای هوش مصنوعی را از بین ببرد. هنگامی که کاربران میدانند که یک مدل هوش مصنوعی برای مطابقت با یک دستور کار سیاسی خاص دستکاری میشود، ممکن است کمتر به خروجیهای آن اعتماد کنند یا برای اطلاعات به آن تکیه کنند. این میتواند منجر به بدبینی و بیاعتمادی شود که میتواند پذیرش و پذیرش فناوری هوش مصنوعی در جامعه را تضعیف کند.
ثالثاً، سانسور میتواند یک دیدگاه تحریف شده از واقعیت ایجاد کند. مدلهای هوش مصنوعی با فیلتر کردن انتخابی اطلاعات و دیدگاهها، میتوانند تصویری جانبدارانه یا ناقص از جهان ارائه دهند. این میتواند تأثیر قابل توجهی بر افکار عمومی داشته باشد و حتی میتواند برای دستکاری باورها و رفتارهای مردم مورد استفاده قرار گیرد.
زمینه گستردهتر: مقررات هوش مصنوعی در چین
محیط نظارتی در چین نقش مهمی در شکل دادن به توسعه و استقرار فناوری هوش مصنوعی دارد. قانون سال 2023 که مدلهای هوش مصنوعی را از تولید محتوایی که “به وحدت کشور و هماهنگی اجتماعی آسیب میرساند” منع میکند، تنها نمونهای از تلاشهای دولت برای کنترل جریان اطلاعات و حفظ ثبات اجتماعی است.
این مقررات تأثیر قابل توجهی بر شرکتهای هوش مصنوعی که در چین فعالیت میکنند دارد. آنها باید با دقت در الزامات پیچیده و اغلب مبهم حرکت کنند تا از نقض قانون جلوگیری کنند. این میتواند یک کار چالش برانگیز باشد، زیرا تعریف آنچه که محتوای “آسیبرسان” یا “مضر” را تشکیل میدهد، اغلب باز به تفسیر است.
علاوه بر این، مقررات میتواند اثر سردکنندهای بر نوآوری ایجاد کند. توسعهدهندگان هوش مصنوعی ممکن است از بررسی موضوعات خاص یا آزمایش ایدههای جدید از ترس جلب توجه ناخواسته از سوی مقامات، تردید داشته باشند. این میتواند خلاقیت را خفه کرده و پتانسیل فناوری هوش مصنوعی را برای رسیدگی به برخی از مهمترین چالشهای جهان محدود کند.
معضلات اخلاقی سانسور هوش مصنوعی
عمل سانسور هوش مصنوعی چندین معضل اخلاقی را ایجاد میکند. یکی از مهمترین آنها این سوال است که چه کسی باید تصمیم بگیرد چه محتوایی قابل قبول است و چه محتوایی نیست. در مورد چین، دولت نقش اصلی را در تعیین این استانداردها بر عهده گرفته است. با این حال، این نگرانیهایی را در مورد پتانسیل تعصب سیاسی و سرکوب صداهای مخالف ایجاد میکند.
معضل اخلاقی دیگر، مسئله شفافیت است. آیا شرکتهای هوش مصنوعی باید در مورد شیوههای سانسور خود شفاف باشند؟ آیا باید معیارهایی را که برای فیلتر کردن محتوا استفاده میکنند و دلایل تصمیمات خود را افشا کنند؟ شفافیت برای ایجاد اعتماد و اطمینان از استفاده مسئولانه از سیستمهای هوش مصنوعی ضروری است. با این حال، اجرای آن در عمل نیز میتواند چالش برانگیز باشد، زیرا ممکن است شرکتها ملزم به افشای اطلاعات حساس در مورد الگوریتمها و دادههای خود باشند.
معضل اخلاقی بیشتر، مسئله پاسخگویی است. چه کسی باید مسئولیت اشتباهات یا آسیب رساندن سیستمهای هوش مصنوعی را بر عهده بگیرد؟ آیا باید توسعهدهندگان، اپراتورها یا کاربران باشند؟ ایجاد خطوط روشن پاسخگویی برای اطمینان از استفاده اخلاقی و مسئولانه از سیستمهای هوش مصنوعی ضروری است.
آینده هوش مصنوعی و سانسور
با ادامه پیشرفت فناوری هوش مصنوعی، بحث در مورد سانسور احتمالاً تشدید خواهد شد. تنش بین تمایل به کنترل اطلاعات و نیاز به تقویت نوآوری به شکل دادن به توسعه و استقرار سیستمهای هوش مصنوعی ادامه خواهد داد.
یک آینده احتمالی، دنیایی است که در آن سیستمهای هوش مصنوعی به شدت سانسور و توسط دولتها کنترل میشوند. در این سناریو، از فناوری هوش مصنوعی برای تقویت ساختارهای قدرت موجود و سرکوب مخالفت استفاده میشود. این میتواند منجر به خفه شدن نوآوری و کاهش آزادیهای فردی شود.
آینده احتمالی دیگر، دنیایی است که در آن سیستمهای هوش مصنوعی بازتر و شفافتر هستند. در این سناریو، از فناوری هوش مصنوعی برای توانمندسازی افراد و ترویج دموکراسی استفاده میشود. این میتواند منجر به شکوفایی خلاقیت و نوآوری و همچنین احساس بیشتر اعتماد و پاسخگویی شود.
آینده هوش مصنوعی و سانسور به انتخابهایی که امروز میکنیم بستگی دارد. ضروری است که در یک بحث متفکرانه و آگاهانه در مورد پیامدهای اخلاقی، اجتماعی و سیاسی فناوری هوش مصنوعی شرکت کنیم. با همکاری یکدیگر، میتوانیم اطمینان حاصل کنیم که از هوش مصنوعی برای ایجاد دنیایی عادلانهتر و عادلانهتر استفاده میشود.
پیمایش در پیچیدگیهای مقررات محتوای هوش مصنوعی
پرونده Sand AI چالشهای پیچیده پیرامون مقررات محتوای هوش مصنوعی، به ویژه در زمینههایی با کنترلهای سختگیرانه سیاسی و اجتماعی را برجسته میکند. تعادل بین تقویت نوآوری، پایبندی به الزامات نظارتی و حمایت از اصول اخلاقی، ظریف است. از آنجایی که هوش مصنوعی به نفوذ در جنبههای مختلف زندگی ما ادامه میدهد، بحث پیرامون مقررات آن باید چند وجهی باشد و شامل ملاحظات قانونی، اخلاقی و فنی باشد.
دولتها در سراسر جهان با وظیفه ایجاد چارچوبهای مناسب برای حکمرانی هوش مصنوعی دست و پنجه نرم میکنند. این چارچوبها با هدف رسیدگی به نگرانیهایی مانند تعصب، حریم خصوصی، امنیت و پاسخگویی هستند. با این حال، سرعت سریع توسعه هوش مصنوعی، بهروز نگه داشتن مقررات و مرتبط بودن آنها را چالشبرانگیز میکند.
علاوه بر این، ماهیت جهانی هوش مصنوعی پیچیدگیهای بیشتری را ارائه میدهد. کشورهای مختلف ارزشها و اولویتهای متفاوتی دارند که میتواند منجر به مقررات و استانداردهای متضاد شود. این چالشهایی را برای شرکتهای هوش مصنوعی ایجاد میکند که در سراسر مرزها فعالیت میکنند، زیرا آنها باید در یک شبکه پیچیده از الزامات قانونی و اخلاقی حرکت کنند.
نقش توسعهدهندگان هوش مصنوعی در شکل دادن به آینده
توسعهدهندگان هوش مصنوعی نقش مهمی در شکل دادن به آینده هوش مصنوعی دارند. آنها کسانی هستند که سیستمهای هوش مصنوعی را طراحی و میسازند و مسئولیت دارند که اطمینان حاصل کنند که این سیستمها به طور اخلاقی و مسئولانه مورد استفاده قرار میگیرند.
این شامل آگاهی از پتانسیل تعصب در الگوریتمهای هوش مصنوعی و برداشتن گامهایی برای کاهش آن است. این همچنین شامل شفاف بودن در مورد نحوه کار سیستمهای هوش مصنوعی و ارائه توضیحات واضح از تصمیمات آنها به کاربران است.
علاوه بر این، توسعهدهندگان هوش مصنوعی باید به طور فعال در بحث در مورد مقررات هوش مصنوعی شرکت کنند. آنها بینش و تخصص ارزشمندی دارند که میتواند به سیاستگذاران کمک کند تا تصمیمات آگاهانه بگیرند.
با همکاری یکدیگر، توسعهدهندگان هوش مصنوعی، سیاستگذاران و مردم میتوانند اطمینان حاصل کنند که از هوش مصنوعی برای ایجاد آیندهای بهتر برای همه استفاده میشود.
نتیجهگیری
داستان Sand AI و شیوههای سانسور آن به عنوان یادآوری از چالشهای پیچیده و ملاحظات اخلاقی است که در توسعه و استقرار فناوری هوش مصنوعی به وجود میآید. با ادامه تکامل هوش مصنوعی، ضروری است که در بحثهای باز و صادقانه در مورد مزایا و خطرات بالقوه آن شرکت کنیم. با همکاری یکدیگر، میتوانیم اطمینان حاصل کنیم که از هوش مصنوعی برای ایجاد دنیایی عادلانهتر، عادلانهتر و مرفه تر استفاده میشود.