Magi-1: یک مدل امیدوارکننده اما محدود
در اوایل این هفته، Sand AI از Magi-1 رونمایی کرد، مدلی که قادر است ویدیوها را با پیشبینی ‘رگرسیون خودکار’ توالی فریمها تولید کند. این شرکت ادعا میکند که این مدل میتواند فیلمهای با کیفیت بالا و قابل کنترل تولید کند که فیزیک را دقیقتر از رقبای متنباز خود ثبت میکند.
با وجود پتانسیل خود، Magi-1 در حال حاضر برای اکثر سختافزارهای مصرفی غیرعملی است. با داشتن 24 میلیارد پارامتر، برای عملکرد مؤثر به بین چهار تا هشت پردازنده گرافیکی Nvidia H100 نیاز دارد. پارامترها متغیرهای داخلی هستند که مدلهای هوش مصنوعی برای پیشبینی از آنها استفاده میکنند. برای بسیاری از کاربران، از جمله روزنامهنگار TechCrunch که آن را آزمایش کرد، پلتفرم Sand AI تنها راه دسترسی برای ارزیابی Magi-1 است.
سانسور در عمل: چه تصاویری مسدود شدهاند؟
این پلتفرم برای شروع تولید ویدیو به یک درخواست متنی یا یک تصویر اولیه نیاز دارد. با این حال، همانطور که TechCrunch به سرعت کشف کرد، همه درخواستها مجاز نیستند. Sand AI به طور فعال آپلود تصاویری را که دارای موارد زیر هستند، مسدود میکند:
- شی جین پینگ
- میدان تیانآنمن و مرد تانکی
- پرچم تایوان
- نوشتههایی در حمایت از آزادی هنگ کنگ
به نظر میرسد فیلتر در سطح تصویر اتفاق میافتد، زیرا تغییر نام فایلهای تصویر از این بلوک عبور نکرد.
Sand AI در اجرای سانسور تنها نیست
Sand AI در رویکرد خود منحصر به فرد نیست. Hailuo AI، یک پلتفرم رسانهای مولد که توسط MiniMax مستقر در شانگهای اداره میشود، نیز از آپلود تصاویر حساس سیاسی، به ویژه تصاویری که شی جین پینگ را به تصویر میکشند، جلوگیری میکند. با این حال، به نظر میرسد فیلتر Sand AI به طور خاص سختگیرانه است، زیرا Hailuo AI تصاویر میدان تیانآنمن را مجاز میداند.
چشمانداز حقوقی سانسور هوش مصنوعی در چین
همانطور که Wired در مقالهای در ژانویه توضیح داد، مدلهای هوش مصنوعی که در چین فعالیت میکنند، مشمول کنترلهای اطلاعاتی سختگیرانهای هستند. قانون سال 2023 این مدلها را از تولید محتوایی که ‘وحدت ملی و هماهنگی اجتماعی را به خطر میاندازد’ منع میکند. این میتواند به عنوان محتوایی تفسیر شود که با روایتهای تاریخی و سیاسی دولت مغایرت دارد. برای رعایت این مقررات، استارتآپهای چینی اغلب مدلهای خود را از طریق فیلترهای سطح درخواست یا تنظیم دقیق سانسور میکنند.
تضاد در سانسور: سیاست در مقابل هرزهنگاری
جالب اینجاست که در حالی که مدلهای هوش مصنوعی چینی تمایل دارند بیان سیاسی را مسدود کنند، اغلب فیلترهای کمتری در برابر محتوای هرزهنگاری نسبت به همتایان آمریکایی خود دارند. 404 اخیراً گزارش داد که چندین تولیدکننده ویدیو که توسط شرکتهای چینی منتشر شدهاند، فاقد محافظهای اساسی برای جلوگیری از ایجاد تصاویر صریح غیر توافقی هستند.
مفاهیم سانسور هوش مصنوعی
شیوههای سانسور مورد استفاده توسط Sand AI و سایر شرکتهای هوش مصنوعی چینی، سؤالات مهمی را در مورد آینده توسعه و دسترسی هوش مصنوعی در چین مطرح میکند. این شیوهها نه تنها دامنه محتوایی را که میتوان تولید کرد محدود میکند، بلکه منعکسکننده محدودیتهای سیاسی و اجتماعی گستردهتری است که این شرکتها تحت آن فعالیت میکنند.
تحلیل دقیق تصاویر مسدود شده
تصاویر خاصی که توسط Sand AI مسدود شدهاند، دریچهای به حساسیتهای دولت چین ارائه میدهند. به عنوان مثال، سانسور تصاویر شی جین پینگ، تأکید دولت بر حفظ تصویری دقیق و مدیریت شده از رهبر خود را برجسته میکند. به طور مشابه، مسدود کردن تصاویر میدان تیانآنمن و مرد تانکی، تلاشهای دولت برای سرکوب بحث و یادآوری اعتراضات سال 1989 را برجسته میکند. سانسور پرچم تایوان و نوشتههایی در حمایت از آزادی هنگکنگ، نشاندهنده موضع دولت در مورد این مسائل حساس سیاسی است.
جنبههای فنی سانسور
این واقعیت که سانسور Sand AI در سطح تصویر عمل میکند، نشاندهنده یک سیستم فیلتر پیچیده است که میتواند محتوای بصری خاص را شناسایی و مسدود کند. این سیستم احتمالاً از فناوری تشخیص تصویر برای تجزیه و تحلیل تصاویر آپلود شده و مقایسه آنها با پایگاه دادهای از محتوای ممنوعه استفاده میکند. این واقعیت که تغییر نام فایلهای تصویر از این بلوک عبور نمیکند، نشان میدهد که سیستم صرفاً به نام فایلها متکی نیست، بلکه در واقع دادههای تصویر را تجزیه و تحلیل میکند.
زمینه جهانی سانسور هوش مصنوعی
در حالی که رویکرد چین به سانسور هوش مصنوعی بهطور خاص سختگیرانه است، این تنها کشوری نیست که با موضوع چگونگی تنظیم محتوای تولید شده توسط هوش مصنوعی دست و پنجه نرم میکند. در ایالات متحده و اروپا، سیاستگذاران در حال بررسی مقرراتی برای رسیدگی به مسائلی مانند اطلاعات نادرست، دیپفیکها و نقض حق نسخهبرداری هستند. با این حال، رویکردها و اولویتهای خاص به طور قابل توجهی با چین متفاوت است.
نقش هوش مصنوعی متنباز
این واقعیت که Sand AI مدل Magi-1 خود را به عنوان متنباز منتشر کرد، سؤالات جالبی را در مورد تعادل بین نوآوری و سانسور ایجاد میکند. از یک سو، هوش مصنوعی متنباز میتواند با اجازه دادن به محققان و توسعهدهندگان برای دسترسی و اصلاح آزادانه کد، نوآوری و همکاری را ترویج کند. از سوی دیگر، همچنین میتواند کنترل استفاده از فناوری و جلوگیری از استفاده از آن برای اهداف مخرب را دشوارتر کند.
آینده هوش مصنوعی در چین
آینده هوش مصنوعی در چین احتمالاً تحت تأثیر تنش مداوم بین تمایل دولت برای ترویج نوآوریهای فناورانه و تعهد آن به حفظ کنترل اجتماعی و سیاسی شکل خواهد گرفت. شرکتهای هوش مصنوعی چینی باید یک چشمانداز نظارتی پیچیده را هدایت کنند و راههایی برای توسعه و استقرار فناوری خود به گونهای پیدا کنند که هم نوآورانه و هم مطابق با مقررات دولتی باشد.
مفاهیم گستردهتر
مورد Sand AI مفاهیم گستردهتری را از سانسور هوش مصنوعی برای آزادی بیان و دسترسی به اطلاعات برجسته میکند. با قدرتمندتر و فراگیرتر شدن فناوری هوش مصنوعی، توجه فزاینده به پیامدهای اخلاقی و اجتماعی استفاده از آن و اطمینان از اینکه برای سرکوب مخالفان یا محدود کردن دسترسی به اطلاعات استفاده نمیشود، مهم است.
تحلیل تطبیقی با سایر پلتفرمها
مقایسه شیوههای سانسور Sand AI با شیوههای Hailuo AI نشان میدهد که در شدت سانسور در بین شرکتهای هوش مصنوعی چینی تنوع وجود دارد. این واقعیت که Hailuo AI تصاویر میدان تیانآنمن را مجاز میداند، نشان میدهد که سیاستهای سانسور آن نسبت به Sand AI کمتر جامع است. این تنوع ممکن است منعکسکننده تفاوت در تحمل ریسک شرکتها، تفسیر آنها از مقررات دولتی یا تواناییهای فنی آنها باشد.
تأثیر اقتصادی سانسور
سانسور محتوای تولید شده توسط هوش مصنوعی در چین نیز ممکن است پیامدهای اقتصادی داشته باشد. از یک سو، ممکن است از شرکتهای داخلی در برابر رقابت شرکتهای خارجی که مشمول همان الزامات سانسور نیستند، محافظت کند. از سوی دیگر، ممکن است نوآوری را نیز خفه کند و پتانسیل شرکتهای هوش مصنوعی چینی را برای رقابت در بازار جهانی محدود کند.
چالش ایجاد تعادل بین نوآوری و کنترل
دولت چین با چالش ایجاد تعادل بین تمایل خود برای ترویج نوآوری هوش مصنوعی و تعهد خود به حفظ کنترل اجتماعی و سیاسی مواجه است. سانسور بیش از حد میتواند نوآوری را خفه کند و پتانسیل شرکتهای هوش مصنوعی چینی را محدود کند. سانسور بسیار کم میتواند منجر به انتشار اطلاعات نادرست و فرسایش ثبات اجتماعی و سیاسی شود.
چشمانداز جهانی هوش مصنوعی
چشمانداز هوش مصنوعی به سرعت در حال تحول است و فناوریها و کاربردهای جدیدی در همه زمانها در حال ظهور هستند. چین یک بازیگر اصلی در زمینه هوش مصنوعی است، اما با چالشهایی در رابطه با سانسور، حریم خصوصی دادهها و دسترسی به استعدادها مواجه است. آینده هوش مصنوعی به چگونگی رسیدگی به این چالشها و میزان همکاری و رقابت کشورها به شیوهای منصفانه و باز بستگی دارد.
ملاحظات اخلاقی
استفاده از هوش مصنوعی تعدادی از ملاحظات اخلاقی را مطرح میکند، از جمله مسائل مربوط به تعصب، عدالت، شفافیت و مسئولیتپذیری. مهم است که دستورالعملها و استانداردهای اخلاقی را برای توسعه و استقرار هوش مصنوعی تدوین کنیم تا اطمینان حاصل شود که از آن به روشی مسئولانه و سودمند استفاده میشود.
اهمیت شفافیت
شفافیت برای ایجاد اعتماد در سیستمهای هوش مصنوعی ضروری است. مهم است که بدانیم مدلهای هوش مصنوعی چگونه کار میکنند و چگونه تصمیم میگیرند. این امر مستلزم ارائه دسترسی به دادهها، الگوریتمها و فرآیندهای تصمیمگیری است. شفافیت میتواند به شناسایی و کاهش تعصبات، اطمینان از عدالت و ترویج مسئولیتپذیری کمک کند.
نقش آموزش
آموزش نقش مهمی در آمادهسازی افراد و جوامع برای عصر هوش مصنوعی ایفا میکند. مهم است که مردم را در مورد فناوری هوش مصنوعی، مزایا و خطرات بالقوه آن و پیامدهای اخلاقی و اجتماعی آن آموزش دهیم. آموزش میتواند به ترویج سواد هوش مصنوعی، تفکر انتقادی و نوآوری مسئولانه کمک کند.
آینده کار
احتمالاً هوش مصنوعی تأثیر قابل توجهی بر آینده کار خواهد داشت. برخی از مشاغل ممکن است خودکار شوند، در حالی که برخی دیگر ممکن است ایجاد یا تغییر شکل دهند. مهم است که کارگران را برای این تغییرات با ارائه مهارتها و آموزشهای لازم برای موفقیت در اقتصاد مبتنی بر هوش مصنوعی آماده کنیم.
اهمیت همکاری
همکاری برای رسیدگی به چالشها و فرصتهای ارائه شده توسط هوش مصنوعی ضروری است. این شامل همکاری بین محققان، توسعهدهندگان، سیاستگذاران و مردم میشود. همکاری میتواند به اطمینان از اینکه هوش مصنوعی به گونهای توسعه و مستقر میشود که برای همه مفید باشد، کمک کند.
هوش مصنوعی و امنیت ملی
هوش مصنوعی نیز نقش فزاینده مهمی در امنیت ملی ایفا میکند. از آن برای کاربردهایی مانند نظارت، جمعآوری اطلاعات و سیستمهای تسلیحاتی خودمختار استفاده میشود. استفاده از هوش مصنوعی در امنیت ملی سؤالات پیچیده اخلاقی و استراتژیکی را ایجاد میکند که باید به دقت مورد توجه قرار گیرند.
نیاز به تنظیم
تنظیم هوش مصنوعی یک موضوع پیچیده و در حال تحول است. برخی استدلال میکنند که هوش مصنوعی باید به شدت تنظیم شود تا از آسیبهای احتمالی جلوگیری شود، در حالی که برخی دیگر استدلال میکنند که تنظیم بیش از حد میتواند نوآوری را خفه کند. مهم است که تعادلی بین ترویج نوآوری و محافظت در برابر خطرات ایجاد شود.
هوش مصنوعی و مراقبتهای بهداشتی
هوش مصنوعی این پتانسیل را دارد که مراقبتهای بهداشتی را به طرق مختلف متحول کند. میتوان از آن برای بهبود تشخیص، درمان و پیشگیری از بیماریها استفاده کرد. هوش مصنوعی همچنین میتواند برای شخصیسازی مراقبتهای بهداشتی و دسترسیپذیرتر و مقرون به صرفهتر کردن آن استفاده شود.
هوش مصنوعی و آموزش
از هوش مصنوعی نیز میتوان برای بهبود آموزش استفاده کرد. میتوان از آن برای شخصیسازی یادگیری، ارائه بازخورد و خودکارسازی وظایف اداری استفاده کرد. همچنین میتوان از هوش مصنوعی برای ایجاد ابزارها و منابع آموزشی جدید استفاده کرد.
هوش مصنوعی و محیط زیست
از هوش مصنوعی میتوان برای مقابله با چالشهای زیستمحیطی مانند تغییرات آب و هوایی، آلودگی و کاهش منابع استفاده کرد. میتوان از آن برای بهینهسازی مصرف انرژی، بهبود شیوههای کشاورزی و نظارت بر شرایط زیستمحیطی استفاده کرد.
قدرت هوش مصنوعی
هوش مصنوعی یک فناوری قدرتمند است که این پتانسیل را دارد که بسیاری از جنبههای زندگی ما را متحول کند. مهم است که هوش مصنوعی را به روشی مسئولانه و اخلاقی توسعه و مستقر کنیم تا اطمینان حاصل شود که برای همه بشریت سودمند است. شیوههای سانسور در چین یادآوری آشکاری از این پتانسیل است که هوش مصنوعی برای اهداف کنترل و سرکوب استفاده شود. با ادامه تکامل هوش مصنوعی، بسیار مهم است که در گفتوگو و بحث مداوم درباره پیامدهای اخلاقی آن شرکت کنیم و اطمینان حاصل کنیم که از آن برای ترویج آزادی، عدالت و رفاه انسانی استفاده میشود. ماهیت متنباز برخی از مدلهای هوش مصنوعی در این زمینه فرصتها و چالشهایی را ارائه میدهد. در حالی که هوش مصنوعی متنباز میتواند نوآوری و همکاری را تقویت کند، کنترل استفاده از فناوری و جلوگیری از استفاده از آن برای اهداف مخرب را نیز دشوارتر میکند. چالش این است که راههایی برای استفاده از قدرت هوش مصنوعی در عین کاهش خطرات آن و اطمینان از استفاده از آن به نفع همگان پیدا کنیم. این امر مستلزم رویکردی چندوجهی است که شامل دستورالعملهای اخلاقی، مقررات، آموزش و گفتوگو و بحث مداوم است.
نقش همکاری بینالمللی
توسعه و استقرار هوش مصنوعی تلاشهای جهانی هستند که نیاز به همکاری بینالمللی دارند. کشورها باید برای توسعه استانداردهای مشترک، به اشتراک گذاشتن بهترین شیوهها و رسیدگی به پیامدهای اخلاقی و اجتماعی هوش مصنوعی با یکدیگر همکاری کنند. همکاری بینالمللی میتواند به اطمینان از اینکه هوش مصنوعی برای ترویج صلح، امنیت و رفاه برای همه استفاده میشود، کمک کند.
نتیجهگیری
داستان Sand AI و شیوههای سانسور آن یک نمونه کوچک از چالشها و فرصتهای بزرگتری است که هوش مصنوعی ارائه میکند. با ادامه تکامل هوش مصنوعی و فراگیرتر شدن آن، ضروری است که به پیامدهای اخلاقی، اجتماعی و سیاسی استفاده از آن رسیدگی کنیم. آینده هوش مصنوعی به توانایی ما در استفاده از قدرت آن برای خیر در عین کاهش خطرات آن و اطمینان از استفاده از آن برای ترویج آزادی، عدالت و رفاه انسانی بستگی دارد. گفتوگو و بحث مداوم درباره هوش مصنوعی برای شکل دادن به آینده آن و اطمینان از استفاده از آن برای ایجاد دنیایی بهتر برای همه ضروری است.