سانسـور تصـاویر در استارت‌آپ هوش مصنوعی چین

Magi-1: یک مدل امیدوارکننده اما محدود

در اوایل این هفته، Sand AI از Magi-1 رونمایی کرد، مدلی که قادر است ویدیوها را با پیش‌بینی ‘رگرسیون خودکار’ توالی فریم‌ها تولید کند. این شرکت ادعا می‌کند که این مدل می‌تواند فیلم‌های با کیفیت بالا و قابل کنترل تولید کند که فیزیک را دقیق‌تر از رقبای متن‌باز خود ثبت می‌کند.

با وجود پتانسیل خود، Magi-1 در حال حاضر برای اکثر سخت‌افزارهای مصرفی غیرعملی است. با داشتن 24 میلیارد پارامتر، برای عملکرد مؤثر به بین چهار تا هشت پردازنده گرافیکی Nvidia H100 نیاز دارد. پارامترها متغیرهای داخلی هستند که مدل‌های هوش مصنوعی برای پیش‌بینی از آن‌ها استفاده می‌کنند. برای بسیاری از کاربران، از جمله روزنامه‌نگار TechCrunch که آن را آزمایش کرد، پلتفرم Sand AI تنها راه دسترسی برای ارزیابی Magi-1 است.

سانسور در عمل: چه تصاویری مسدود شده‌اند؟

این پلتفرم برای شروع تولید ویدیو به یک درخواست متنی یا یک تصویر اولیه نیاز دارد. با این حال، همانطور که TechCrunch به سرعت کشف کرد، همه درخواست‌ها مجاز نیستند. Sand AI به طور فعال آپلود تصاویری را که دارای موارد زیر هستند، مسدود می‌کند:

  • شی جین پینگ
  • میدان تیان‌آن‌من و مرد تانکی
  • پرچم تایوان
  • نوشته‌هایی در حمایت از آزادی هنگ کنگ

به نظر می‌رسد فیلتر در سطح تصویر اتفاق می‌افتد، زیرا تغییر نام فایل‌های تصویر از این بلوک عبور نکرد.

Sand AI در اجرای سانسور تنها نیست

Sand AI در رویکرد خود منحصر به فرد نیست. Hailuo AI، یک پلتفرم رسانه‌ای مولد که توسط MiniMax مستقر در شانگهای اداره می‌شود، نیز از آپلود تصاویر حساس سیاسی، به ویژه تصاویری که شی جین پینگ را به تصویر می‌کشند، جلوگیری می‌کند. با این حال، به نظر می‌رسد فیلتر Sand AI به طور خاص سخت‌گیرانه است، زیرا Hailuo AI تصاویر میدان تیان‌آن‌من را مجاز می‌داند.

چشم‌انداز حقوقی سانسور هوش مصنوعی در چین

همانطور که Wired در مقاله‌ای در ژانویه توضیح داد، مدل‌های هوش مصنوعی که در چین فعالیت می‌کنند، مشمول کنترل‌های اطلاعاتی سخت‌گیرانه‌ای هستند. قانون سال 2023 این مدل‌ها را از تولید محتوایی که ‘وحدت ملی و هماهنگی اجتماعی را به خطر می‌اندازد’ منع می‌کند. این می‌تواند به عنوان محتوایی تفسیر شود که با روایت‌های تاریخی و سیاسی دولت مغایرت دارد. برای رعایت این مقررات، استارت‌آپ‌های چینی اغلب مدل‌های خود را از طریق فیلترهای سطح درخواست یا تنظیم دقیق سانسور می‌کنند.

تضاد در سانسور: سیاست در مقابل هرزه‌نگاری

جالب اینجاست که در حالی که مدل‌های هوش مصنوعی چینی تمایل دارند بیان سیاسی را مسدود کنند، اغلب فیلترهای کمتری در برابر محتوای هرزه‌نگاری نسبت به همتایان آمریکایی خود دارند. 404 اخیراً گزارش داد که چندین تولیدکننده ویدیو که توسط شرکت‌های چینی منتشر شده‌اند، فاقد محافظ‌های اساسی برای جلوگیری از ایجاد تصاویر صریح غیر توافقی هستند.

مفاهیم سانسور هوش مصنوعی

شیوه‌های سانسور مورد استفاده توسط Sand AI و سایر شرکت‌های هوش مصنوعی چینی، سؤالات مهمی را در مورد آینده توسعه و دسترسی هوش مصنوعی در چین مطرح می‌کند. این شیوه‌ها نه تنها دامنه محتوایی را که می‌توان تولید کرد محدود می‌کند، بلکه منعکس‌کننده محدودیت‌های سیاسی و اجتماعی گسترده‌تری است که این شرکت‌ها تحت آن فعالیت می‌کنند.

تحلیل دقیق تصاویر مسدود شده

تصاویر خاصی که توسط Sand AI مسدود شده‌اند، دریچه‌ای به حساسیت‌های دولت چین ارائه می‌دهند. به عنوان مثال، سانسور تصاویر شی جین پینگ، تأکید دولت بر حفظ تصویری دقیق و مدیریت شده از رهبر خود را برجسته می‌کند. به طور مشابه، مسدود کردن تصاویر میدان تیان‌آن‌من و مرد تانکی، تلاش‌های دولت برای سرکوب بحث و یادآوری اعتراضات سال 1989 را برجسته می‌کند. سانسور پرچم تایوان و نوشته‌هایی در حمایت از آزادی هنگ‌کنگ، نشان‌دهنده موضع دولت در مورد این مسائل حساس سیاسی است.

جنبه‌های فنی سانسور

این واقعیت که سانسور Sand AI در سطح تصویر عمل می‌کند، نشان‌دهنده یک سیستم فیلتر پیچیده است که می‌تواند محتوای بصری خاص را شناسایی و مسدود کند. این سیستم احتمالاً از فناوری تشخیص تصویر برای تجزیه و تحلیل تصاویر آپلود شده و مقایسه آنها با پایگاه داده‌ای از محتوای ممنوعه استفاده می‌کند. این واقعیت که تغییر نام فایل‌های تصویر از این بلوک عبور نمی‌کند، نشان می‌دهد که سیستم صرفاً به نام فایل‌ها متکی نیست، بلکه در واقع داده‌های تصویر را تجزیه و تحلیل می‌کند.

زمینه جهانی سانسور هوش مصنوعی

در حالی که رویکرد چین به سانسور هوش مصنوعی بهطور خاص سخت‌گیرانه است، این تنها کشوری نیست که با موضوع چگونگی تنظیم محتوای تولید شده توسط هوش مصنوعی دست و پنجه نرم می‌کند. در ایالات متحده و اروپا، سیاست‌گذاران در حال بررسی مقرراتی برای رسیدگی به مسائلی مانند اطلاعات نادرست، دیپ‌فیک‌ها و نقض حق نسخه‌برداری هستند. با این حال، رویکردها و اولویت‌های خاص به طور قابل توجهی با چین متفاوت است.

نقش هوش مصنوعی متن‌باز

این واقعیت که Sand AI مدل Magi-1 خود را به عنوان متن‌باز منتشر کرد، سؤالات جالبی را در مورد تعادل بین نوآوری و سانسور ایجاد می‌کند. از یک سو، هوش مصنوعی متن‌باز می‌تواند با اجازه دادن به محققان و توسعه‌دهندگان برای دسترسی و اصلاح آزادانه کد، نوآوری و همکاری را ترویج کند. از سوی دیگر، همچنین می‌تواند کنترل استفاده از فناوری و جلوگیری از استفاده از آن برای اهداف مخرب را دشوارتر کند.

آینده هوش مصنوعی در چین

آینده هوش مصنوعی در چین احتمالاً تحت تأثیر تنش مداوم بین تمایل دولت برای ترویج نوآوری‌های فناورانه و تعهد آن به حفظ کنترل اجتماعی و سیاسی شکل خواهد گرفت. شرکت‌های هوش مصنوعی چینی باید یک چشم‌انداز نظارتی پیچیده را هدایت کنند و راه‌هایی برای توسعه و استقرار فناوری خود به گونه‌ای پیدا کنند که هم نوآورانه و هم مطابق با مقررات دولتی باشد.

مفاهیم گسترده‌تر

مورد Sand AI مفاهیم گسترده‌تری را از سانسور هوش مصنوعی برای آزادی بیان و دسترسی به اطلاعات برجسته می‌کند. با قدرتمندتر و فراگیرتر شدن فناوری هوش مصنوعی، توجه فزاینده به پیامدهای اخلاقی و اجتماعی استفاده از آن و اطمینان از اینکه برای سرکوب مخالفان یا محدود کردن دسترسی به اطلاعات استفاده نمی‌شود، مهم است.

تحلیل تطبیقی ​​با سایر پلتفرم‌ها

مقایسه شیوه‌های سانسور Sand AI با شیوه‌های Hailuo AI نشان می‌دهد که در شدت سانسور در بین شرکت‌های هوش مصنوعی چینی تنوع وجود دارد. این واقعیت که Hailuo AI تصاویر میدان تیان‌آن‌من را مجاز می‌داند، نشان می‌دهد که سیاست‌های سانسور آن نسبت به Sand AI کمتر جامع است. این تنوع ممکن است منعکس‌کننده تفاوت در تحمل ریسک شرکت‌ها، تفسیر آنها از مقررات دولتی یا توانایی‌های فنی آنها باشد.

تأثیر اقتصادی سانسور

سانسور محتوای تولید شده توسط هوش مصنوعی در چین نیز ممکن است پیامدهای اقتصادی داشته باشد. از یک سو، ممکن است از شرکت‌های داخلی در برابر رقابت شرکت‌های خارجی که مشمول همان الزامات سانسور نیستند، محافظت کند. از سوی دیگر، ممکن است نوآوری را نیز خفه کند و پتانسیل شرکت‌های هوش مصنوعی چینی را برای رقابت در بازار جهانی محدود کند.

چالش ایجاد تعادل بین نوآوری و کنترل

دولت چین با چالش ایجاد تعادل بین تمایل خود برای ترویج نوآوری هوش مصنوعی و تعهد خود به حفظ کنترل اجتماعی و سیاسی مواجه است. سانسور بیش از حد می‌تواند نوآوری را خفه کند و پتانسیل شرکت‌های هوش مصنوعی چینی را محدود کند. سانسور بسیار کم می‌تواند منجر به انتشار اطلاعات نادرست و فرسایش ثبات اجتماعی و سیاسی شود.

چشم‌انداز جهانی هوش مصنوعی

چشم‌انداز هوش مصنوعی به سرعت در حال تحول است و فناوری‌ها و کاربردهای جدیدی در همه زمان‌ها در حال ظهور هستند. چین یک بازیگر اصلی در زمینه هوش مصنوعی است، اما با چالش‌هایی در رابطه با سانسور، حریم خصوصی داده‌ها و دسترسی به استعدادها مواجه است. آینده هوش مصنوعی به چگونگی رسیدگی به این چالش‌ها و میزان همکاری و رقابت کشورها به شیوه‌ای منصفانه و باز بستگی دارد.

ملاحظات اخلاقی

استفاده از هوش مصنوعی تعدادی از ملاحظات اخلاقی را مطرح می‌کند، از جمله مسائل مربوط به تعصب، عدالت، شفافیت و مسئولیت‌پذیری. مهم است که دستورالعمل‌ها و استانداردهای اخلاقی را برای توسعه و استقرار هوش مصنوعی تدوین کنیم تا اطمینان حاصل شود که از آن به روشی مسئولانه و سودمند استفاده می‌شود.

اهمیت شفافیت

شفافیت برای ایجاد اعتماد در سیستم‌های هوش مصنوعی ضروری است. مهم است که بدانیم مدل‌های هوش مصنوعی چگونه کار می‌کنند و چگونه تصمیم می‌گیرند. این امر مستلزم ارائه دسترسی به داده‌ها، الگوریتم‌ها و فرآیندهای تصمیم‌گیری است. شفافیت می‌تواند به شناسایی و کاهش تعصبات، اطمینان از عدالت و ترویج مسئولیت‌پذیری کمک کند.

نقش آموزش

آموزش نقش مهمی در آماده‌سازی افراد و جوامع برای عصر هوش مصنوعی ایفا می‌کند. مهم است که مردم را در مورد فناوری هوش مصنوعی، مزایا و خطرات بالقوه آن و پیامدهای اخلاقی و اجتماعی آن آموزش دهیم. آموزش می‌تواند به ترویج سواد هوش مصنوعی، تفکر انتقادی و نوآوری مسئولانه کمک کند.

آینده کار

احتمالاً هوش مصنوعی تأثیر قابل توجهی بر آینده کار خواهد داشت. برخی از مشاغل ممکن است خودکار شوند، در حالی که برخی دیگر ممکن است ایجاد یا تغییر شکل دهند. مهم است که کارگران را برای این تغییرات با ارائه مهارت‌ها و آموزش‌های لازم برای موفقیت در اقتصاد مبتنی بر هوش مصنوعی آماده کنیم.

اهمیت همکاری

همکاری برای رسیدگی به چالش‌ها و فرصت‌های ارائه شده توسط هوش مصنوعی ضروری است. این شامل همکاری بین محققان، توسعه‌دهندگان، سیاست‌گذاران و مردم می‌شود. همکاری می‌تواند به اطمینان از اینکه هوش مصنوعی به گونه‌ای توسعه و مستقر می‌شود که برای همه مفید باشد، کمک کند.

هوش مصنوعی و امنیت ملی

هوش مصنوعی نیز نقش فزاینده مهمی در امنیت ملی ایفا می‌کند. از آن برای کاربردهایی مانند نظارت، جمع‌آوری اطلاعات و سیستم‌های تسلیحاتی خودمختار استفاده می‌شود. استفاده از هوش مصنوعی در امنیت ملی سؤالات پیچیده اخلاقی و استراتژیکی را ایجاد می‌کند که باید به دقت مورد توجه قرار گیرند.

نیاز به تنظیم

تنظیم هوش مصنوعی یک موضوع پیچیده و در حال تحول است. برخی استدلال می‌کنند که هوش مصنوعی باید به شدت تنظیم شود تا از آسیب‌های احتمالی جلوگیری شود، در حالی که برخی دیگر استدلال می‌کنند که تنظیم بیش از حد می‌تواند نوآوری را خفه کند. مهم است که تعادلی بین ترویج نوآوری و محافظت در برابر خطرات ایجاد شود.

هوش مصنوعی و مراقبت‌های بهداشتی

هوش مصنوعی این پتانسیل را دارد که مراقبت‌های بهداشتی را به طرق مختلف متحول کند. می‌توان از آن برای بهبود تشخیص، درمان و پیشگیری از بیماری‌ها استفاده کرد. هوش مصنوعی همچنین می‌تواند برای شخصی‌سازی مراقبت‌های بهداشتی و دسترسی‌پذیرتر و مقرون به صرفه‌تر کردن آن استفاده شود.

هوش مصنوعی و آموزش

از هوش مصنوعی نیز می‌توان برای بهبود آموزش استفاده کرد. می‌توان از آن برای شخصی‌سازی یادگیری، ارائه بازخورد و خودکارسازی وظایف اداری استفاده کرد. همچنین می‌توان از هوش مصنوعی برای ایجاد ابزارها و منابع آموزشی جدید استفاده کرد.

هوش مصنوعی و محیط زیست

از هوش مصنوعی می‌توان برای مقابله با چالش‌های زیست‌محیطی مانند تغییرات آب و هوایی، آلودگی و کاهش منابع استفاده کرد. می‌توان از آن برای بهینه‌سازی مصرف انرژی، بهبود شیوه‌های کشاورزی و نظارت بر شرایط زیست‌محیطی استفاده کرد.

قدرت هوش مصنوعی

هوش مصنوعی یک فناوری قدرتمند است که این پتانسیل را دارد که بسیاری از جنبه‌های زندگی ما را متحول کند. مهم است که هوش مصنوعی را به روشی مسئولانه و اخلاقی توسعه و مستقر کنیم تا اطمینان حاصل شود که برای همه بشریت سودمند است. شیوه‌های سانسور در چین یادآوری آشکاری از این پتانسیل است که هوش مصنوعی برای اهداف کنترل و سرکوب استفاده شود. با ادامه تکامل هوش مصنوعی، بسیار مهم است که در گفت‌وگو و بحث مداوم درباره پیامدهای اخلاقی آن شرکت کنیم و اطمینان حاصل کنیم که از آن برای ترویج آزادی، عدالت و رفاه انسانی استفاده می‌شود. ماهیت متن‌باز برخی از مدل‌های هوش مصنوعی در این زمینه فرصت‌ها و چالش‌هایی را ارائه می‌دهد. در حالی که هوش مصنوعی متن‌باز می‌تواند نوآوری و همکاری را تقویت کند، کنترل استفاده از فناوری و جلوگیری از استفاده از آن برای اهداف مخرب را نیز دشوارتر می‌کند. چالش این است که راه‌هایی برای استفاده از قدرت هوش مصنوعی در عین کاهش خطرات آن و اطمینان از استفاده از آن به نفع همگان پیدا کنیم. این امر مستلزم رویکردی چندوجهی است که شامل دستورالعمل‌های اخلاقی، مقررات، آموزش و گفت‌وگو و بحث مداوم است.

نقش همکاری بین‌المللی

توسعه و استقرار هوش مصنوعی تلاش‌های جهانی هستند که نیاز به همکاری بین‌المللی دارند. کشورها باید برای توسعه استانداردهای مشترک، به اشتراک گذاشتن بهترین شیوه‌ها و رسیدگی به پیامدهای اخلاقی و اجتماعی هوش مصنوعی با یکدیگر همکاری کنند. همکاری بین‌المللی می‌تواند به اطمینان از اینکه هوش مصنوعی برای ترویج صلح، امنیت و رفاه برای همه استفاده می‌شود، کمک کند.

نتیجه‌گیری

داستان Sand AI و شیوه‌های سانسور آن یک نمونه کوچک از چالش‌ها و فرصت‌های بزرگ‌تری است که هوش مصنوعی ارائه می‌کند. با ادامه تکامل هوش مصنوعی و فراگیرتر شدن آن، ضروری است که به پیامدهای اخلاقی، اجتماعی و سیاسی استفاده از آن رسیدگی کنیم. آینده هوش مصنوعی به توانایی ما در استفاده از قدرت آن برای خیر در عین کاهش خطرات آن و اطمینان از استفاده از آن برای ترویج آزادی، عدالت و رفاه انسانی بستگی دارد. گفت‌وگو و بحث مداوم درباره هوش مصنوعی برای شکل دادن به آینده آن و اطمینان از استفاده از آن برای ایجاد دنیایی بهتر برای همه ضروری است.