سانسور تصاویر حساس در استارتاپ هوش مصنوعی چینی

شرکت نوپای چینی Sand AI ظاهراً در حال پیاده‌سازی اقداماتی برای مسدود کردن تصاویر خاص با حساسیت سیاسی از ابزار تولید ویدیوی آنلاین خود است. این مشاهده پس از آزمایش‌های انجام شده توسط TechCrunch صورت گرفت که نشان می‌دهد این شرکت در حال سانسور نسخه میزبانی شده مدل خود برای جلوگیری از تصاویری است که ممکن است مقامات نظارتی چین را تحریک کند.

Sand AI اخیراً Magi-1، یک مدل تولید ویدیوی هوش مصنوعی با مجوز باز را راه‌اندازی کرده است. این مدل توسط شخصیت‌هایی مانند کای-فو لی، مدیر مؤسس Microsoft Research Asia، مورد ستایش قرار گرفته و پتانسیل و نوآوری آن در این زمینه برجسته شده است. Magi-1 با پیش‌بینی “خودرگرسیو” توالی فریم‌ها برای تولید ویدیوها عمل می‌کند. Sand AI ادعا می‌کند که Magi-1 می‌تواند فیلم‌های با کیفیت بالا و قابل کنترل تولید کند که به طور دقیق فیزیک را ثبت می‌کند و از دیگر مدل‌های باز موجود در بازار عملکرد بهتری دارد.

مشخصات فنی و دسترسی به Magi-1

کاربرد عملی Magi-1 به دلیل نیازهای سخت‌افزاری زیاد آن محدود است. این مدل دارای 24 میلیارد پارامتر است و برای عملکرد به چهار تا هشت پردازنده گرافیکی Nvidia H100 نیاز دارد. این امر پلتفرم Sand AI را به محل اصلی و اغلب تنها محل دسترسی برای بسیاری از کاربران برای آزمایش قابلیت‌های Magi-1 تبدیل می‌کند.

فرآیند تولید ویدیو در این پلتفرم با یک تصویر “prompt” آغاز می‌شود. با این حال، همه تصاویر پذیرفته نمی‌شوند. تحقیقات TechCrunch نشان داد که سیستم Sand AI آپلود تصاویری از شی جین پینگ، میدان تیان‌آن‌من و حادثه “مرد تانکی”، پرچم تایوان و نمادهای مرتبط با جنبش آزادی هنگ کنگ را مسدود می‌کند. به نظر می‌رسد این سیستم فیلتر در سطح تصویر عمل می‌کند، زیرا صرفاً تغییر نام فایل‌های تصویر، محدودیت‌ها را دور نمی‌زند.

مقایسه با دیگر پلتفرم‌های هوش مصنوعی چینی

Sand AI تنها استارتاپ چینی نیست که آپلود تصاویر حساس سیاسی را به ابزارهای تولید ویدیوی خود محدود می‌کند. Hailuo AI، پلتفرم رسانه‌ای مولد MiniMax مستقر در شانگهای، نیز تصاویر شی جین پینگ را مسدود می‌کند. با این حال، به نظر می‌رسد مکانیسم فیلتر Sand AI سخت‌گیرانه‌تر است. به عنوان مثال، Hailuo AI تصاویر میدان تیان‌آن‌من را مجاز می‌داند، در حالی که Sand AI این کار را نمی‌کند.

ضرورت این کنترل‌های سخت‌گیرانه ریشه در مقررات چین دارد. همانطور که Wired در ژانویه گزارش داد، مدل‌های هوش مصنوعی در چین موظف به رعایت کنترل‌های اطلاعاتی سخت‌گیرانه هستند. یک قانون در سال 2023 به صراحت مدل‌های هوش مصنوعی را از تولید محتوایی که “به وحدت کشور و هماهنگی اجتماعی آسیب می‌رساند” منع می‌کند. این تعریف گسترده می‌تواند هر محتوایی را در بر گیرد که با روایات تاریخی و سیاسی دولت مغایرت داشته باشد. برای مطابقت با این مقررات، استارتاپ‌های چینی اغلب از فیلترهای سطح prompt استفاده می‌کنند یا مدل‌های خود را برای سانسور محتوای بالقوه مشکل‌ساز تنظیم می‌کنند.

رویکردهای متضاد سانسور: محتوای سیاسی در مقابل محتوای مستهجن

جالب اینجاست که در حالی که مدل‌های هوش مصنوعی چینی اغلب به شدت در مورد سخنرانی‌های سیاسی سانسور می‌شوند، گاهی اوقات محدودیت‌های کمتری در مورد محتوای مستهجن در مقایسه با همتایان آمریکایی خود دارند. یک گزارش اخیر توسط 404 نشان داد که بسیاری از تولیدکنندگان ویدیو از شرکت‌های چینی فاقد حفاظ‌های اساسی برای جلوگیری از تولید تصاویر برهنه بدون رضایت هستند.

اقدامات Sand AI و دیگر شرکت‌های فناوری چینی بر تعامل پیچیده بین نوآوری فناوری، کنترل سیاسی و ملاحظات اخلاقی در بخش هوش مصنوعی تأکید می‌کند. با ادامه تکامل فناوری هوش مصنوعی، بحث در مورد سانسور، آزادی بیان و مسئولیت‌های توسعه‌دهندگان هوش مصنوعی بدون شک تشدید خواهد شد.

بررسی عمیق‌تر جنبه‌های فنی Magi-1

Magi-1 نشان‌دهنده یک پیشرفت چشمگیر در فناوری تولید ویدیو است، عمدتاً به دلیل رویکرد خودرگرسیو آن. این روش شامل پیش‌بینی توالی فریم‌ها توسط مدل است که امکان خروجی ویدیویی ظریف‌تر و منسجم‌تر را فراهم می‌کند. این ادعا که Magi-1 می‌تواند فیزیک را دقیق‌تر از مدل‌های باز رقیب ثبت کند، به ویژه قابل توجه است. این نشان می‌دهد که مدل قادر به تولید ویدیوهایی است که حرکات و تعاملات واقع‌گرایانه را به نمایش می‌گذارند و آن را به ابزاری ارزشمند برای کاربردهای مختلف از جمله سرگرمی، آموزش و تجسم علمی تبدیل می‌کند.

قابلیت‌های چشمگیر مدل نیز در اندازه و الزامات سخت‌افزاری آن منعکس شده است. Magi-1 با 24 میلیارد پارامتر، مدلی پیچیده و از نظر محاسباتی فشرده است. نیاز به چند پردازنده گرافیکی سطح بالا مانند Nvidia H100s بر منابع قابل توجه مورد نیاز برای اجرای موثر آن تأکید می‌کند. این محدودیت به این معنی است که در حالی که Magi-1 یک مدل منبع باز است، دسترسی آن به کاربران فردی و سازمان‌های کوچک‌تر محدود است. بنابراین، پلتفرم Sand AI به عنوان یک دروازه مهم برای بسیاری از افراد برای تجربه و آزمایش این فناوری پیشرفته عمل می‌کند.

پیامدهای سانسور بر توسعه هوش مصنوعی

شیوه‌های سانسور اعمال شده توسط Sand AI و دیگر شرکت‌های هوش مصنوعی چینی، سؤالات مهمی را در مورد آینده توسعه هوش مصنوعی و تأثیر آن بر جامعه ایجاد می‌کند. در حالی که نیاز به مطابقت با مقررات محلی قابل درک است، عمل سانسور محتوای حساس سیاسی می‌تواند پیامدهای گسترده‌ای داشته باشد.

اولاً، می‌تواند نوآوری را با محدود کردن دامنه آنچه مدل‌های هوش مصنوعی می‌توانند ایجاد کنند، خفه کند. هنگامی که توسعه‌دهندگان مجبور می‌شوند از موضوعات یا دیدگاه‌های خاص اجتناب کنند، می‌تواند توانایی آنها را در بررسی ایده‌های جدید و پیشبرد مرزهای آنچه با هوش مصنوعی امکان‌پذیر است، مختل کند. این می‌تواند در نهایت پیشرفت فناوری هوش مصنوعی را کند کرده و مزایای بالقوه آن را محدود کند.

ثانیاً، سانسور می‌تواند اعتماد به سیستم‌های هوش مصنوعی را از بین ببرد. هنگامی که کاربران می‌دانند که یک مدل هوش مصنوعی برای مطابقت با یک دستور کار سیاسی خاص دستکاری می‌شود، ممکن است کمتر به خروجی‌های آن اعتماد کنند یا برای اطلاعات به آن تکیه کنند. این می‌تواند منجر به بدبینی و بی‌اعتمادی شود که می‌تواند پذیرش و پذیرش فناوری هوش مصنوعی در جامعه را تضعیف کند.

ثالثاً، سانسور می‌تواند یک دیدگاه تحریف شده از واقعیت ایجاد کند. مدل‌های هوش مصنوعی با فیلتر کردن انتخابی اطلاعات و دیدگاه‌ها، می‌توانند تصویری جانبدارانه یا ناقص از جهان ارائه دهند. این می‌تواند تأثیر قابل توجهی بر افکار عمومی داشته باشد و حتی می‌تواند برای دستکاری باورها و رفتارهای مردم مورد استفاده قرار گیرد.

زمینه گسترده‌تر: مقررات هوش مصنوعی در چین

محیط نظارتی در چین نقش مهمی در شکل دادن به توسعه و استقرار فناوری هوش مصنوعی دارد. قانون سال 2023 که مدل‌های هوش مصنوعی را از تولید محتوایی که “به وحدت کشور و هماهنگی اجتماعی آسیب می‌رساند” منع می‌کند، تنها نمونه‌ای از تلاش‌های دولت برای کنترل جریان اطلاعات و حفظ ثبات اجتماعی است.

این مقررات تأثیر قابل توجهی بر شرکت‌های هوش مصنوعی که در چین فعالیت می‌کنند دارد. آنها باید با دقت در الزامات پیچیده و اغلب مبهم حرکت کنند تا از نقض قانون جلوگیری کنند. این می‌تواند یک کار چالش برانگیز باشد، زیرا تعریف آنچه که محتوای “آسیب‌رسان” یا “مضر” را تشکیل می‌دهد، اغلب باز به تفسیر است.

علاوه بر این، مقررات می‌تواند اثر سردکننده‌ای بر نوآوری ایجاد کند. توسعه‌دهندگان هوش مصنوعی ممکن است از بررسی موضوعات خاص یا آزمایش ایده‌های جدید از ترس جلب توجه ناخواسته از سوی مقامات، تردید داشته باشند. این می‌تواند خلاقیت را خفه کرده و پتانسیل فناوری هوش مصنوعی را برای رسیدگی به برخی از مهم‌ترین چالش‌های جهان محدود کند.

معضلات اخلاقی سانسور هوش مصنوعی

عمل سانسور هوش مصنوعی چندین معضل اخلاقی را ایجاد می‌کند. یکی از مهم‌ترین آنها این سوال است که چه کسی باید تصمیم بگیرد چه محتوایی قابل قبول است و چه محتوایی نیست. در مورد چین، دولت نقش اصلی را در تعیین این استانداردها بر عهده گرفته است. با این حال، این نگرانی‌هایی را در مورد پتانسیل تعصب سیاسی و سرکوب صداهای مخالف ایجاد می‌کند.

معضل اخلاقی دیگر، مسئله شفافیت است. آیا شرکت‌های هوش مصنوعی باید در مورد شیوه‌های سانسور خود شفاف باشند؟ آیا باید معیارهایی را که برای فیلتر کردن محتوا استفاده می‌کنند و دلایل تصمیمات خود را افشا کنند؟ شفافیت برای ایجاد اعتماد و اطمینان از استفاده مسئولانه از سیستم‌های هوش مصنوعی ضروری است. با این حال، اجرای آن در عمل نیز می‌تواند چالش برانگیز باشد، زیرا ممکن است شرکت‌ها ملزم به افشای اطلاعات حساس در مورد الگوریتم‌ها و داده‌های خود باشند.

معضل اخلاقی بیشتر، مسئله پاسخگویی است. چه کسی باید مسئولیت اشتباهات یا آسیب رساندن سیستم‌های هوش مصنوعی را بر عهده بگیرد؟ آیا باید توسعه‌دهندگان، اپراتورها یا کاربران باشند؟ ایجاد خطوط روشن پاسخگویی برای اطمینان از استفاده اخلاقی و مسئولانه از سیستم‌های هوش مصنوعی ضروری است.

آینده هوش مصنوعی و سانسور

با ادامه پیشرفت فناوری هوش مصنوعی، بحث در مورد سانسور احتمالاً تشدید خواهد شد. تنش بین تمایل به کنترل اطلاعات و نیاز به تقویت نوآوری به شکل دادن به توسعه و استقرار سیستم‌های هوش مصنوعی ادامه خواهد داد.

یک آینده احتمالی، دنیایی است که در آن سیستم‌های هوش مصنوعی به شدت سانسور و توسط دولت‌ها کنترل می‌شوند. در این سناریو، از فناوری هوش مصنوعی برای تقویت ساختارهای قدرت موجود و سرکوب مخالفت استفاده می‌شود. این می‌تواند منجر به خفه شدن نوآوری و کاهش آزادی‌های فردی شود.

آینده احتمالی دیگر، دنیایی است که در آن سیستم‌های هوش مصنوعی بازتر و شفاف‌تر هستند. در این سناریو، از فناوری هوش مصنوعی برای توانمندسازی افراد و ترویج دموکراسی استفاده می‌شود. این می‌تواند منجر به شکوفایی خلاقیت و نوآوری و همچنین احساس بیشتر اعتماد و پاسخگویی شود.

آینده هوش مصنوعی و سانسور به انتخاب‌هایی که امروز می‌کنیم بستگی دارد. ضروری است که در یک بحث متفکرانه و آگاهانه در مورد پیامدهای اخلاقی، اجتماعی و سیاسی فناوری هوش مصنوعی شرکت کنیم. با همکاری یکدیگر، می‌توانیم اطمینان حاصل کنیم که از هوش مصنوعی برای ایجاد دنیایی عادلانه‌تر و عادلانه‌تر استفاده می‌شود.

پیمایش در پیچیدگی‌های مقررات محتوای هوش مصنوعی

پرونده Sand AI چالش‌های پیچیده پیرامون مقررات محتوای هوش مصنوعی، به ویژه در زمینه‌هایی با کنترل‌های سخت‌گیرانه سیاسی و اجتماعی را برجسته می‌کند. تعادل بین تقویت نوآوری، پایبندی به الزامات نظارتی و حمایت از اصول اخلاقی، ظریف است. از آنجایی که هوش مصنوعی به نفوذ در جنبه‌های مختلف زندگی ما ادامه می‌دهد، بحث پیرامون مقررات آن باید چند وجهی باشد و شامل ملاحظات قانونی، اخلاقی و فنی باشد.

دولت‌ها در سراسر جهان با وظیفه ایجاد چارچوب‌های مناسب برای حکمرانی هوش مصنوعی دست و پنجه نرم می‌کنند. این چارچوب‌ها با هدف رسیدگی به نگرانی‌هایی مانند تعصب، حریم خصوصی، امنیت و پاسخگویی هستند. با این حال، سرعت سریع توسعه هوش مصنوعی، به‌روز نگه داشتن مقررات و مرتبط بودن آنها را چالش‌برانگیز می‌کند.

علاوه بر این، ماهیت جهانی هوش مصنوعی پیچیدگی‌های بیشتری را ارائه می‌دهد. کشورهای مختلف ارزش‌ها و اولویت‌های متفاوتی دارند که می‌تواند منجر به مقررات و استانداردهای متضاد شود. این چالش‌هایی را برای شرکت‌های هوش مصنوعی ایجاد می‌کند که در سراسر مرزها فعالیت می‌کنند، زیرا آنها باید در یک شبکه پیچیده از الزامات قانونی و اخلاقی حرکت کنند.

نقش توسعه‌دهندگان هوش مصنوعی در شکل دادن به آینده

توسعه‌دهندگان هوش مصنوعی نقش مهمی در شکل دادن به آینده هوش مصنوعی دارند. آنها کسانی هستند که سیستم‌های هوش مصنوعی را طراحی و می‌سازند و مسئولیت دارند که اطمینان حاصل کنند که این سیستم‌ها به طور اخلاقی و مسئولانه مورد استفاده قرار می‌گیرند.

این شامل آگاهی از پتانسیل تعصب در الگوریتم‌های هوش مصنوعی و برداشتن گام‌هایی برای کاهش آن است. این همچنین شامل شفاف بودن در مورد نحوه کار سیستم‌های هوش مصنوعی و ارائه توضیحات واضح از تصمیمات آنها به کاربران است.

علاوه بر این، توسعه‌دهندگان هوش مصنوعی باید به طور فعال در بحث در مورد مقررات هوش مصنوعی شرکت کنند. آنها بینش و تخصص ارزشمندی دارند که می‌تواند به سیاست‌گذاران کمک کند تا تصمیمات آگاهانه بگیرند.

با همکاری یکدیگر، توسعه‌دهندگان هوش مصنوعی، سیاست‌گذاران و مردم می‌توانند اطمینان حاصل کنند که از هوش مصنوعی برای ایجاد آینده‌ای بهتر برای همه استفاده می‌شود.

نتیجه‌گیری

داستان Sand AI و شیوه‌های سانسور آن به عنوان یادآوری از چالش‌های پیچیده و ملاحظات اخلاقی است که در توسعه و استقرار فناوری هوش مصنوعی به وجود می‌آید. با ادامه تکامل هوش مصنوعی، ضروری است که در بحث‌های باز و صادقانه در مورد مزایا و خطرات بالقوه آن شرکت کنیم. با همکاری یکدیگر، می‌توانیم اطمینان حاصل کنیم که از هوش مصنوعی برای ایجاد دنیایی عادلانه‌تر، عادلانه‌تر و مرفه تر استفاده می‌شود.