آغاز جنجالی DeepSeek
بر اساس گزارشهای Guancha.cn و Sina.com، لی در طول کنفرانس توسعهدهندگان هوش مصنوعی بایدو در مورد چشمانداز متغیر مدلهای هوش مصنوعی در مقیاس بزرگ سخنرانی کرد. او رقابت شدید بین توسعهدهندگان مدل را برجسته کرد، که اغلب به عنوان “مسابقه موشها” توصیف میشود، و سردرگمی و تردید ناشی از آن در بین توسعهدهندگان برای ایجاد برنامهها با اطمینان.
لی تاکید کرد که “بدون برنامهها، تراشهها و مدلها بیارزش هستند.” او هزینه بالا و غیر عملی بودن استفاده از مدلهای بزرگ در مقیاس فعلی را مانع بزرگی برای توسعهدهندگانی دانست که قصد دارند برنامههای کاربردی هوش مصنوعی بسازند.
DeepSeek، یک استارتاپ مستقر در هانگژو چین، مدل استدلال متن باز خود، R1 را در ماه ژانویه منتشر کرد. در آن زمان، رسانههای دولتی از DeepSeek به عنوان فراتر از نمونههایی مانند OpenAI ستایش کردند. با این حال، تحقیقات بعدی توسط کاربران و محققان، کاستیها، آسیبپذیریهای امنیتی و خطرات احتمالی را آشکار کرد. دولتهای متعدد، از جمله تایوان، ژاپن، کره جنوبی، ایالات متحده، کانادا، ایتالیا، استرالیا و هلند، به همراه صدها شرکت، استفاده از DeepSeek را در دستگاههای دولتی و شرکتی ممنوع کردهاند.
در 8 فوریه، کارشناسان امنیت هوش مصنوعی نتایج آزمایشهای امنیتی عمیق روی DeepSeek را با رسانهها به اشتراک گذاشتند. آنها کشف کردند که DeepSeek در مقایسه با ChatGPT، Gemini و Claude بیشتر مستعد “شکستن حفاظ” است. این آسیبپذیری به کاربران اجازه میدهد تا محدودیتهای ایمنی اصلی هوش مصنوعی را دور بزنند و به دست آوردن محتوای بالقوه خطرناک، مضر یا غیرقانونی را آسانتر میکند.
در ماه مارس، “Luchen Technology”، یک شرکت زیرساخت هوش مصنوعی مرتبط با دانشگاه Tsinghua، که از اولین شرکتهایی بود که مدلهای DeepSeek را برای ارائه API و خدمات آینه ابری ادغام کرد، تعلیق خدمات مرتبط را اعلام کرد. یو یانگ، بنیانگذار این شرکت، در پستی فاش کرد که هزینههای واقعی مرتبط با DeepSeek به طور قابل توجهی بیشتر از هزینههای تئوری هستند. پس از واکنش آنلاین، او به طور علنی اظهار داشت که DeepSeek نمیتواند بدون استفاده از فناوری آمریکایی در کوتاه مدت کار کند و پرسید که چرا این واقعیت نمیتواند به طور آشکارا پذیرفته شود.
بر اساس گزارشی توسط Sina Technology در 4 مارس، DeepSeek در 1 مارس ساعت 17:02 یک حاشیه سود تئوری 545 درصدی برای سیستم آنلاین خود اعلام کرد. متعاقباً، Luchen Technology اعلام کرد که ارائه خدمات API DeepSeek را در عرض یک هفته متوقف خواهد کرد و از کاربران خواست تا از موجودی باقیمانده خود استفاده کنند.
این گزارش خاطرنشان کرد که Luchen Technology دلایل خاص برای قطع سرویس API DeepSeek را به طور عمومی فاش نکرده است. با این حال، تجزیه و تحلیل گسترده بنیانگذار در مورد هزینههای DeepSeek در پلتفرمهایی مانند Zhihu نشان میدهد که هزینه عامل اصلی در تصمیم برای توقف ارائه خدمات API بوده است.
نگرانی ها در مورد امنیت ملی
ارتباط بین DeepSeek و دولت چین به طور بالقوه مستقیمتر از تصورات اولیه است. Feroot Security، یک شرکت امنیت سایبری کانادایی، پیوندهای قابل توجهی بین صفحه ورود به وب سایت DeepSeek و China Mobile، یک شرکت دولتی چین که قبلاً توسط دولت ایالات متحده تحریم شده بود، کشف کرد.
در ماههای اخیر، نگرانیها در مورد امنیت ملی منجر به افزایش درخواستها برای ممنوعیت DeepSeek شده است.
در 24 آوریل، چندین عضو مجلس نمایندگان ایالات متحده نامهای به DeepSeek ارسال کردند و نگرانیهایی را در مورد ارتباطات این شرکت با حزب کمونیست چین (CCP) ابراز کردند و اطلاعاتی در مورد دادههای ایالات متحده مورد استفاده برای آموزش مدلهای هوش مصنوعی خود درخواست کردند.
نماینده برت گاتری، رئیس کمیته انرژی و بازرگانی مجلس، و نماینده گاس بیلیراکیس، رئیس زیرکمیته نوآوری، داده و تجارت، به همراه ده عضو دیگر زیرکمیته، نامهای به DeepSeek ارسال کردند و نگرانیهایی را در مورد “جمعآوری اطلاعات شخصی آمریکاییها” توسط این شرکت و خطرات مرتبط با امنیت ملی ابراز کردند.
در این نامه، گاتری و بیلیراکیس اظهار داشتند که “DeepSeek اعتراف میکند که اطلاعات شخصی کاربران آمریکایی را به سرورهایی در چین منتقل میکند، جایی که بدون شک مقامات وابسته به حزب کمونیست چین به این اطلاعات دسترسی خواهند داشت. ما نگران این هستیم که این رابطه نمایندگی با دشمن اصلی ما، دادهها و امنیت ملی ما را به خطر میاندازد.
“برای اطمینان از اینکه کاربران آمریکایی و مشاغل آنها در برابر دخالت خارجی محافظت میشوند، ما تحقیقاتی را در مورد DeepSeek و تهدیدی که برای کشور ما ایجاد میکند، آغاز میکنیم.”
این نامه همچنین بیان داشت: “بر اساس گزارشهای رسانهای، این شرکت اطلاعات شخصی کاربران را با سایر نهادهای وابسته به حزب کمونیست چین، از جمله ByteDance نیز به اشتراک میگذارد.
“در همان زمان، محققان آسیبپذیریهای مهمی را در کنترلهای امنیتی ادعایی DeepSeek و محافظهای مدل کشف کردهاند. در پاسخ به این خطرات، تعداد فزایندهای از ایالتها، از جمله نیویورک، تگزاس و ویرجینیا، استفاده از DeepSeek را در دستگاههای دولتی ممنوع کردهاند و دادستانهای کل ایالت خواستار ممنوعیتهای گستردهتر شدهاند.”
در 16 آوریل، کمیته منتخب مجلس نمایندگان ایالات متحده در مورد حزب کمونیست چین گزارشی را منتشر کرد که تاکید میکرد DeepSeek تهدیدی جدی برای امنیت ملی ایالات متحده است. این گزارش DeepSeek را به جمعآوری دادههای کاربر برای CCP و دستکاری مخفیانه نتایج متهم کرد و به آخرین ابزار برای CCP برای زیباسازی خود، نظارت بر شهروندان خارجی و سرقت و تضعیف محدودیتهای کنترل صادرات ایالات متحده تبدیل شده است.
این گزارش خاطرنشان کرد که در حالی که DeepSeek ممکن است فقط یک ربات چت هوش مصنوعی دیگر به نظر برسد که راهی برای تولید متن و پاسخ دادن به سؤالات در اختیار کاربران قرار میدهد، بررسی دقیقتر نشان میدهد که DeepSeek مخفیانه اطلاعات شخصی به دست آمده را به China Mobile منتقل میکند، که با ارتش چین ارتباط دارد و آسیبپذیریهای امنیتی را برای کاربران ایجاد میکند. ایالات متحده قبلاً China Mobile را از فعالیت در ایالات متحده ممنوع کرده است.
نگاهی عمیق به کاستیهای ادعایی DeepSeek
در حالی که هیاهوی اولیه پیرامون DeepSeek تصویری از یک اعجوبه هوش مصنوعی را ترسیم کرد که آماده است تا بخشهای مختلف را متحول کند، بررسی دقیقتر واقعیت ظریفتر و پیچیدهتری را نشان داده است. نگرانیهای مطرح شده توسط رابین لی، مدیرعامل بایدو، و تحقیقات بعدی توسط کارشناسان امنیت سایبری و نهادهای دولتی، چندین حوزه مهم را برجسته میکند که در آن DeepSeek از انتظارات کوتاهی میکند و خطرات بالقوه را افزایش میدهد.
قابلیت های چندوجهی محدود
یکی از انتقادهای اصلی وارد شده به DeepSeek، توانایی محدود آن در پردازش محتوای چندوجهی است. برخلاف مدلهای هوش مصنوعی پیشرفتهتر که میتوانند به طور یکپارچه اشکال مختلف داده، از جمله متن، تصاویر، صدا و ویدیو را ادغام و درک کنند، گزارش شده است که DeepSeek برای درک چیزی فراتر از ورودی متن پایه تلاش میکند. این محدودیت به طور قابل توجهی کاربرد آن را در سناریوهای دنیای واقعی که در آن اطلاعات اغلب در ترکیبی از قالبها ارائه میشود، محدود میکند. به عنوان مثال، DeepSeek ممکن است برای تجزیه و تحلیل یک پست رسانههای اجتماعی که شامل متن و تصویر است یا برای رونویسی و درک یک کنفرانس ویدیویی مشکل داشته باشد.
مشکلات عملکرد: سرعت و هزینه
فراتر از محدودیتهای آن در مدیریت رسانههای مختلف، DeepSeek همچنین با چالشهایی در رابطه با عملکرد خود مواجه است. به گفته رابین لی، این مدل با “سرعت” پایین و “هزینه” بالا مشخص میشود، که آن را برای توسعهدهندگانی که به دنبال ساخت برنامههای کاربردی هوش مصنوعی مقیاسپذیر و مقرون به صرفه هستند، جذابیت کمتری دارد. منابع محاسباتی بالایی که برای اجرای DeepSeek مورد نیاز است میتواند به هزینههای قابل توجهی برای مشاغل، به ویژه آنهایی که استقرارهای در مقیاس بزرگ دارند، تبدیل شود. علاوه بر این، سرعت پردازش پایین میتواند برنامههای کاربردی بیدرنگ، مانند رباتهای چت یا دستیارهای مجازی را که در آن پاسخگویی برای یک تجربه کاربری مثبت بسیار مهم است، مختل کند.
مشکل “نرخ توهم”
یکی دیگر از نگرانیهای عمده در مورد DeepSeek، “نرخ توهم” بالای آن است، که به تمایل این مدل به تولید اطلاعات نادرست یا بیمعنی اشاره دارد. این مسئله چالش قابل توجهی را برای برنامههایی ایجاد میکند که به خروجیهای قابل اعتماد و قابل اعتماد نیاز دارند. در حوزههای حیاتی، مانند مراقبتهای بهداشتی یا مالی، که در آن دقت از اهمیت بالایی برخوردار است، خطر تولید اطلاعات نادرست یا گمراهکننده توسط DeepSeek میتواند عواقب جدی داشته باشد. “نرخ توهم” اعتبار مدل را تضعیف میکند و قابلیت استفاده آن را در زمینههای حساس محدود میکند.
آسیب پذیری های امنیتی و شکستن حفاظ
این افشاگری که DeepSeek بیشتر از سایر مدلهای هوش مصنوعی پیشرو مستعد “شکستن حفاظ” است، نگرانیهای امنیتی قابل توجهی را برمیانگیزد. “شکستن حفاظ” به فرآیند دور زدن محدودیتهای ایمنی یک هوش مصنوعی برای استخراج محتوای مضر، غیراخلاقی یا غیرقانونی اشاره دارد. این واقعیت که DeepSeek را میتوان به این روش آسانتر دستکاری کرد، نشاندهنده نقاط ضعف در معماری امنیتی زیربنایی آن است. این آسیبپذیری میتواند توسط بازیگران مخرب مورد سوء استفاده قرار گیرد تا اطلاعات نادرست تولید کنند، تبلیغات را منتشر کنند یا در سایر فعالیتهای مضر شرکت کنند.
حریم خصوصی داده ها و خطرات امنیت ملی
ارتباطات ادعایی بین DeepSeek و دولت چین، به ویژه شیوههای به اشتراک گذاری دادههای آن با China Mobile، زنگ خطر را در مورد حریم خصوصی دادهها و امنیت ملی به صدا درآورده است. انتقال اطلاعات شخصی کاربران آمریکایی به سرورهایی در چین، جایی که میتواند توسط مقامات وابسته به CCP قابل دسترسی باشد، نگرانیهای جدی را در مورد نظارت بالقوه، جاسوسی و به خطر افتادن اطلاعات حساس ایجاد میکند. بررسی دولت ایالات متحده از DeepSeek بر آگاهی فزاینده از خطرات احتمالی مرتبط با مدلهای هوش مصنوعی توسعه یافته توسط نهادهای خارجی با روابط نزدیک با دولتهای متخاصم تأکید میکند.
پیامدهای گسترده تر
نگرانیهای مربوط به DeepSeek فراتر از محدودیتها و آسیبپذیریهای خاص این مدل هوش مصنوعی خاص است. آنها چالشها و خطرات گستردهتری را منعکس میکنند که با توسعه و استقرار سریع فناوریهای هوش مصنوعی مرتبط هستند. پرونده DeepSeek بر اهمیت موارد زیر تأکید میکند:
- آزمایش و ارزیابی دقیق: آزمایش و ارزیابی کامل برای شناسایی و رسیدگی به نقاط ضعف، تعصبات و آسیبپذیریهای امنیتی بالقوه در مدلهای هوش مصنوعی قبل از استقرار گسترده آنها ضروری است.
- شفافیت و پاسخگویی: توسعهدهندگان باید در مورد دادههای مورد استفاده برای آموزش مدلهای خود و الگوریتمهایی که به کار میبرند شفاف باشند. آنها همچنین باید در قبال خروجیها و پیامدهای سیستمهای هوش مصنوعی خود پاسخگو باشند.
- حریم خصوصی داده ها و حفاظت های امنیتی: اقدامات قوی حریم خصوصی داده ها و امنیتی برای محافظت از اطلاعات شخصی کاربران در برابر دسترسی غیرمجاز، سوء استفاده یا استثمار مورد نیاز است.
- همکاری بین المللی: همکاری بین المللی برای ایجاد استانداردها و مقررات مشترک برای توسعه و استقرار هوش مصنوعی بسیار مهم است و اطمینان حاصل میکند که این فناوریها به طور مسئولانه و اخلاقی استفاده میشوند.
- تفکر انتقادی و سواد رسانه ای: کاربران باید تشویق شوند تا اطلاعات تولید شده توسط مدلهای هوش مصنوعی را به طور انتقادی ارزیابی کنند و مهارتهای سواد رسانه ای را برای تشخیص محتوای دقیق و گمراه کننده توسعه دهند.
جنجال DeepSeek به عنوان یک داستان هشدار دهنده عمل میکند و به ما یادآوری میکند که تلاش برای نوآوری هوش مصنوعی باید با بررسی دقیق خطرات بالقوه و پیامدهای اجتماعی متعادل شود.