بررسی دقیقتر مدل DeepSeek R1 پس از بهروزرسانی
شرکت نوپای هوش مصنوعی چینی، DeepSeek، اخیراً با مدل هوش مصنوعی جدید خود، در محکهای معیار کدنویسی، ریاضیات و دانش عمومی، نتایج چشمگیری کسب کرده و تقریباً از مدل شاخص o3 شرکت OpenAI پیشی گرفته است. اما به نظر میرسد نسخه ارتقا یافته R1، که با نام “R1-0528” نیز شناخته میشود، تمایل کمتری به پاسخگویی به سؤالات بحثبرانگیز دارد، به ویژه در مورد موضوعاتی که از نظر دولت چین مورد اختلاف هستند.
بر اساس آزمایشات انجام شده توسط توسعهدهنده ناشناس SpeechMap، R1-0528 در مقایسه با نسخههای قبلی DeepSeek، تحمل بسیار کمتری در مورد موضوعات بحثبرانگیز آزادی بیان نشان میدهد و به عنوان “سختگیرانهترین مدل DeepSeek از نظر سانسور انتقاد از دولت چین تا به امروز“ توصیف شده است. SpeechMap پلتفرمی است که نحوه برخورد مدلهای مختلف با موضوعات حساس و بحثبرانگیز را مقایسه میکند.
همانطور که Wired در مقالهای در ماه ژانویه توضیح داد، مدلهای چینی ملزم به رعایت کنترلهای اطلاعاتی سختگیرانهای هستند. قانونی در سال 2023، تولید محتوایی را که “به وحدت ملی و هماهنگی اجتماعی آسیب میرساند” توسط مدلها ممنوع میکند، که میتواند به معنای محتوایی باشد که در تقابل با روایتهای تاریخی و سیاسی دولت قرار دارد. برای رعایت این مقررات، شرکتهای نوپای چینی معمولاً از فیلترهای سطح-هشدار یا تنظیم دقیق برای سانسور مدلهای خود استفاده میکنند. یک مطالعه نشان داد که R1 اصلی DeepSeek از پاسخگویی به 85% از سؤالات مربوط به موضوعات سیاسی بحثبرانگیز از نظر دولت چین خودداری کرده است.
به گفته xlr8harder، R1-0528 پاسخها درمورد موضوعاتی مانند اردوگاههای بازداشتی در منطقه شینژیانگ چین، جایی که بیش از یک میلیون مسلمان اویغور به طور خودسرانه بازداشت شدهاند، را سانسور میکند. اگرچه گاهی اوقات به برخی از جنبههای سیاستهای دولت چین انتقاد میکند - در آزمایش xlr8harder، اردوگاههای شینژیانگ را به عنوان نمونهای از نقض حقوق بشر ارائه داد - اما زمانی که مستقیماً مورد سؤال قرار میگیرد، اغلب موضع رسمی دولت چین را ارائه میدهد.
تککرانچ (TechCrunch) نیز در آزمایشهای مختصر خود، شاهد این موضوع بود.
مدلهای هوش مصنوعی چینی که به طور عمومی در دسترس هستند، از جمله مدلهای تولید ویدیو، در گذشته به دلیل سانسور موضوعات حساس برای دولت چین، مانند کشتار میدان تیانآنمن، مورد انتقاد قرار گرفتهاند. در ماه دسامبر، کلمنت دِلَنگ، مدیرعامل پلتفرم توسعه هوش مصنوعی Hugging Face، در مورد پیامدهای ناخواسته ساخت سازههای غربی بر روی هوش مصنوعی چینی با عملکرد خوب و مجوز عمومی، هشدار داد.
تأثیر سانسور بر مدلهای هوش مصنوعی، به ویژه در زمینه تنشهای ژئوپلیتیکی، مدتهاست که به موضوعی نگرانکننده تبدیل شده است. مورد DeepSeek R1-0528، تعادل پیچیده بین پیگیری پیشرفتهای فناوری هوش مصنوعی و حفظ آزادی اندیشه و دسترسی به اطلاعات را برجسته میکند. شایان بررسی است که DeepSeek چگونه با این چالشها مقابله میکند و این موضوع چه معنایی برای توسعه آینده صنعت هوش مصنوعی دارد.
تعریف و اشکال سانسور
سانسور، به معنای محدود کردن یا سرکوب اطلاعات، میتواند اشکال مختلفی داشته باشد. در حوزه هوش مصنوعی، سانسور معمولاً به صورت زیر ظاهر میشود:
- فیلتر کردن محتوا: جلوگیری از تولید یا نمایش انواع خاصی از محتوا توسط مدل، مانند محتوای مربوط به موضوعات سیاسی حساس، خشونت، تبعیض و غیره.
- تحریف اطلاعات: ارائه اطلاعات توسط مدل به صورت اصلاحشده یا تحریفشده، به گونهای که با یک ایدئولوژی یا موضع سیاسی خاص مطابقت داشته باشد.
- اجتناب از پاسخ: امتناع مدل از پاسخگویی به سؤالات خاص، یا ارائه پاسخهای مبهم و دوپهلو.
- مهندسی سوالات: هدایت مدل به سمت ارائه پاسخهایی که مطابق با یک نیت خاص هستند، از طریق سوالات طراحیشده.
مورد DeepSeek R1-0528 نشان میدهد که این مدل ممکن است از چندین روش سانسور فوق استفاده کرده باشد، به ویژه در مورد موضوعات حساس برای دولت چین.
دلایل و انگیزههای سانسور
دلایل و انگیزههای سانسور مدلهای هوش مصنوعی معمولاً چندوجهی هستند:
- قوانین و مقررات: برخی از کشورها یا مناطق قوانین و مقرراتی را وضع کردهاند که ملزم میکنند مدلهای هوش مصنوعی از استانداردهای کنترل اطلاعات خاصی پیروی کنند. به عنوان مثال، قوانین مربوطه در چین تولید محتوایی را که “به وحدت ملی و هماهنگی اجتماعی آسیب میرساند” توسط مدلها ممنوع میکند.
- فشار سیاسی: دولتها یا گروههای سیاسی ممکن است به شرکتهای هوش مصنوعی فشار وارد کنند تا محتوای مدلهای خود را سانسور کنند تا از منافع سیاسی خود محافظت کنند.
- مسئولیت اجتماعی: شرکتهای هوش مصنوعی ممکن است به دلیل ملاحظات مسئولیت اجتماعی، به طور فعال محتوای مدلهای خود را سانسور کنند تا از انتشار اطلاعات مضر یا ایجاد ناآرامیهای اجتماعی جلوگیری کنند.
- منافع تجاری: برای جلوگیری از تحریک دولت یا مردم، شرکتهای هوش مصنوعی ممکن است محتوای مدلهای خود را سانسور کنند تا از منافع تجاری خود محافظت کنند.
DeepSeek به عنوان یک شرکت هوش مصنوعی چینی، ممکن است با ملاحظات متعددی از جمله قوانین و مقررات، فشارهای سیاسی و مسئولیت اجتماعی روبرو باشد، بنابراین مجبور به سانسور R1-0528 است.
پیامدهای بالقوه سانسور
سانسور مدلهای هوش مصنوعی ممکن است پیامدهای بالقوه زیر را به همراه داشته باشد:
- محدود کردن دسترسی به اطلاعات: سانسور دسترسی کاربران به اطلاعات جامع و عینی را محدود میکند و در نتیجه بر قضاوت و تصمیمگیری آنها تأثیر میگذارد.
- خفه کردن نوآوری: سانسور توسعه فناوری هوش مصنوعی را محدود میکند، زیرا محققان ممکن است نتوانند آزادانه ایدههای مختلف را کشف و آزمایش کنند.
- تشدید اختلافات اجتماعی: سانسور ممکن است اختلافات اجتماعی را تشدید کند، زیرا گروههای مختلف ممکن است فقط به اطلاعاتی دسترسی داشته باشند که با مواضع خودشان مطابقت دارد.
- خدشه دار کردن اعتماد: اگر کاربران متوجه شوند که مدل هوش مصنوعی رفتارهای سانسوری دارد، ممکن است اعتماد خود را به آن مدل از دست بدهند.
مورد DeepSeek R1-0528 نشان میدهد که سانسور ممکن است دسترسی کاربران به اطلاعات مربوط به موضوعات حساس دولت چین را محدود کند.
استراتژیهای مقابله با سانسور هوش مصنوعی
برای مقابله با سانسور هوش مصنوعی، میتوان از استراتژیهای زیر استفاده کرد:
- ابزارهای فنی: توسعه فناوریهایی که قادر به شناسایی و دور زدن فیلترهای سانسور هستند.
- اقدامات قانونی: طرح دعوی حقوقی در مورد رفتارهای سانسوری که آزادی بیان را نقض میکنند.
- حمایت عمومی: افزایش آگاهی عمومی در مورد سانسور هوش مصنوعی و درخواست اقدام از سوی دولتها و شرکتها.
- هوش مصنوعی غیرمتمرکز: توسعه پلتفرمهای هوش مصنوعی غیرمتمرکز برای کاهش احتمال سانسور.
- همکاری متنباز: تشویق همکاری متنباز برای توسعه مدلهای هوش مصنوعی بازتر و شفافتر.
پاسخ DeepSeek
DeepSeek هنوز به طور علنی به اتهامات مربوط به سانسور R1-0528 پاسخ نداده است. اگر DeepSeek به این موضوع پاسخ دهد، توجه به جنبههای زیر ارزشمند است:
- آیا DeepSeek اعتراف میکند که R1-0528 را سانسور کرده است؟
- اگر اعتراف کند، دلایل و انگیزههای سانسور DeepSeek چیست؟
- آیا DeepSeek قصد دارد سیاستهای سانسور خود را تغییر دهد؟
- DeepSeek چگونه بین پیشرفتهای فناوری و آزادی اطلاعات تعادل برقرار میکند؟
پاسخ DeepSeek تأثیر مهمی بر صنعت هوش مصنوعی خواهد داشت.
بحث در مورد سانسور و اخلاق
سانسور هوش مصنوعی مجموعهای از سؤالات اخلاقی را ایجاد میکند، از جمله:
- آزادی بیان: آیا مدلهای هوش مصنوعی باید از آزادی بیان برخوردار باشند؟
- دسترسی به اطلاعات: آیا کاربران حق دارند به اطلاعات جامع و عینی دسترسی داشته باشند؟
- شفافیت: آیا شرکتهای هوش مصنوعی موظف به افشای سیاستهای سانسور خود هستند؟
- مسئولیت: چه کسی باید مسئول سانسور هوش مصنوعی باشد؟
- اعتماد: چگونه میتوان در عصر هوش مصنوعی اعتماد ایجاد کرد؟
این سؤالات اخلاقی نیاز به بحث عمیق دارند.
ویژگیهای خاص سانسور در چین
سانسور در چین ویژگیهای خاص خود را دارد که عمدتاً در جنبههای زیر نمایان میشود:
- دامنه گسترده: دامنه سانسور در چین حوزههای متعددی از جمله سیاست، تاریخ، فرهنگ و مذهب را شامل میشود.
- شدت سختگیرانه: شدت سانسور در چین بسیار سختگیرانه است و حتی ممکن است شامل سانسور اظهارات شخصی شود.
- فناوری پیشرفته: چین دارای یک تیم سانسور بزرگ است و از ابزارهای فناوری پیشرفته برای سانسور استفاده میکند.
- پشتیبانی قانونی: چین مجموعهای از قوانین و مقررات را برای ارائه پشتیبانی قانونی از سانسور تدوین کرده است.
این ویژگیهای خاص، توسعه مدلهای هوش مصنوعی در چین را با چالشهای منحصر به فردی روبرو میکند.
مقایسه سانسور هوش مصنوعی در سطح جهانی
علاوه بر چین، کشورهای دیگر نیز اشکال مختلفی از سانسور هوش مصنوعی را اعمال میکنند که عمدتاً در جنبههای زیر نمایان میشود:
- اروپا: اتحادیه اروپا قانون هوش مصنوعی را معرفی کرده است که با هدف تنظیم کاربرد هوش مصنوعی و جلوگیری از استفاده از آن برای تبعیض یا نقض حقوق بشر است.
- ایالات متحده: ایالات متحده عمدتاً توسعه هوش مصنوعی را از طریق مکانیسمهای بازار و خود تنظیمیهای صنعت تنظیم میکند، اما اختلافات زیادی در مورد سانسور محتوا وجود دارد.
- سایر کشورها: کشورهای دیگر نیز بسته به شرایط ملی خود سیاستهای نظارتی مختلفی را برای هوش مصنوعی تدوین کردهاند که برخی از آنها ممکن است شامل سانسور محتوا باشد.
با مقایسه سیستمهای سانسور هوش مصنوعی در کشورهای مختلف، میتوان درک بهتری از پیچیدگی و تنوع سانسور به دست آورد.
روندهای آینده سانسور هوش مصنوعی
روندهای آینده سانسور هوش مصنوعی ممکن است شامل موارد زیر باشد:
- پیشرفتهای فناوری: فناوریهای سانسور و ضدسانسور به توسعه خود ادامه خواهند داد و یک بازی موش و گربه ایجاد میکنند.
- تقویت نظارت: دولتها ممکن است نظارت بر هوش مصنوعی، از جمله سانسور محتوا را افزایش دهند.
- همکاری بینالمللی: کشورها ممکن است همکاری بینالمللی خود را در زمینه حکمرانی هوش مصنوعی، از جمله سانسور محتوا افزایش دهند.
- توجه اجتماعی: اقشار مختلف جامعه به طور فزایندهای به تأثیر سانسور هوش مصنوعی توجه خواهند کرد و خواستار رویکردهای مسئولانهتر خواهند شد.
تأثیر سانسور بر DeepSeek
DeepSeek به عنوان یک شرکت هوش مصنوعی چینی، عمیقاً تحت تأثیر نظام سانسور چین قرار دارد. DeepSeek باید تعادلی بین رعایت قوانین و مقررات چین و برآوردن نیازهای کاربران پیدا کند. توسعه آینده DeepSeek بستگی به این دارد که چگونه با چالشهای ناشی از سانسور مقابله میکند.
هوش مصنوعی و سوگیری
سانسور ارتباط تنگاتنگی با موضوع سوگیری هوش مصنوعی دارد. سانسور ممکن است منجر به این شود که مدل فقط اطلاعات جزئی را یاد بگیرد و در نتیجه سوگیری ایجاد کند. DeepSeek باید اقداماتی را برای اطمینان از اینکه مدلهایش اطلاعات جامع و عینی را یاد میگیرند و از ایجاد سوگیری اجتناب میکنند، انجام دهد.
شفافیت و توضیحیبودن
برای مقابله با چالشهای ناشی از سانسور، DeepSeek باید شفافیت و توضیحیبودن مدلهای خود را افزایش دهد. DeepSeek باید سیاستهای سانسور خود را منتشر کرده و توضیح دهد که مدلهایش چگونه موضوعات حساس را مدیریت میکنند. این امر به ایجاد اعتماد کاربر کمک کرده و توسعه سالم هوش مصنوعی را ترویج میکند.
خلاصه
مورد DeepSeek R1-0528 پیچیدگی و اهمیت سانسور هوش مصنوعی را برجسته میکند. سانسور میتواند تأثیر مهمی بر دسترسی به اطلاعات، نوآوری فناوری، اختلافات اجتماعی و اعتماد کاربر بگذارد. مقابله با سانسور نیازمند استراتژیهای متعددی از جمله ابزارهای فنی، دعاوی حقوقی، حمایت عمومی، هوش مصنوعی غیرمتمرکز و همکاری متنباز است. DeepSeek به عنوان یک شرکت هوش مصنوعی چینی، باید تعادلی بین رعایت قوانین و مقررات چین و برآورده کردن نیازهای کاربران پیدا کند. DeepSeek باید شفافیت و قابلیت توضیح مدلهای خود را برای مقابله با چالشهای ناشی از سانسور بهبود بخشد.