DeepSeek زیر ذره بین: نگرانی مدیر عامل بایدو

آغاز جنجالی DeepSeek

بر اساس گزارش‌های Guancha.cn و Sina.com، لی در طول کنفرانس توسعه‌دهندگان هوش مصنوعی بایدو در مورد چشم‌انداز متغیر مدل‌های هوش مصنوعی در مقیاس بزرگ سخنرانی کرد. او رقابت شدید بین توسعه‌دهندگان مدل را برجسته کرد، که اغلب به عنوان “مسابقه موش‌ها” توصیف می‌شود، و سردرگمی و تردید ناشی از آن در بین توسعه‌دهندگان برای ایجاد برنامه‌ها با اطمینان.

لی تاکید کرد که “بدون برنامه‌ها، تراشه‌ها و مدل‌ها بی‌ارزش هستند.” او هزینه بالا و غیر عملی بودن استفاده از مدل‌های بزرگ در مقیاس فعلی را مانع بزرگی برای توسعه‌دهندگانی دانست که قصد دارند برنامه‌های کاربردی هوش مصنوعی بسازند.

DeepSeek، یک استارتاپ مستقر در هانگژو چین، مدل استدلال متن باز خود، R1 را در ماه ژانویه منتشر کرد. در آن زمان، رسانه‌های دولتی از DeepSeek به عنوان فراتر از نمونه‌هایی مانند OpenAI ستایش کردند. با این حال، تحقیقات بعدی توسط کاربران و محققان، کاستی‌ها، آسیب‌پذیری‌های امنیتی و خطرات احتمالی را آشکار کرد. دولت‌های متعدد، از جمله تایوان، ژاپن، کره جنوبی، ایالات متحده، کانادا، ایتالیا، استرالیا و هلند، به همراه صدها شرکت، استفاده از DeepSeek را در دستگاه‌های دولتی و شرکتی ممنوع کرده‌اند.

در 8 فوریه، کارشناسان امنیت هوش مصنوعی نتایج آزمایش‌های امنیتی عمیق روی DeepSeek را با رسانه‌ها به اشتراک گذاشتند. آن‌ها کشف کردند که DeepSeek در مقایسه با ChatGPT، Gemini و Claude بیشتر مستعد “شکستن حفاظ” است. این آسیب‌پذیری به کاربران اجازه می‌دهد تا محدودیت‌های ایمنی اصلی هوش مصنوعی را دور بزنند و به دست آوردن محتوای بالقوه خطرناک، مضر یا غیرقانونی را آسان‌تر می‌کند.

در ماه مارس، “Luchen Technology”، یک شرکت زیرساخت هوش مصنوعی مرتبط با دانشگاه Tsinghua، که از اولین شرکت‌هایی بود که مدل‌های DeepSeek را برای ارائه API و خدمات آینه ابری ادغام کرد، تعلیق خدمات مرتبط را اعلام کرد. یو یانگ، بنیانگذار این شرکت، در پستی فاش کرد که هزینه‌های واقعی مرتبط با DeepSeek به طور قابل توجهی بیشتر از هزینه‌های تئوری هستند. پس از واکنش آنلاین، او به طور علنی اظهار داشت که DeepSeek نمی‌تواند بدون استفاده از فناوری آمریکایی در کوتاه مدت کار کند و پرسید که چرا این واقعیت نمی‌تواند به طور آشکارا پذیرفته شود.

بر اساس گزارشی توسط Sina Technology در 4 مارس، DeepSeek در 1 مارس ساعت 17:02 یک حاشیه سود تئوری 545 درصدی برای سیستم آنلاین خود اعلام کرد. متعاقباً، Luchen Technology اعلام کرد که ارائه خدمات API DeepSeek را در عرض یک هفته متوقف خواهد کرد و از کاربران خواست تا از موجودی باقی‌مانده خود استفاده کنند.

این گزارش خاطرنشان کرد که Luchen Technology دلایل خاص برای قطع سرویس API DeepSeek را به طور عمومی فاش نکرده است. با این حال، تجزیه و تحلیل گسترده بنیانگذار در مورد هزینه‌های DeepSeek در پلتفرم‌هایی مانند Zhihu نشان می‌دهد که هزینه عامل اصلی در تصمیم برای توقف ارائه خدمات API بوده است.

نگرانی ها در مورد امنیت ملی

ارتباط بین DeepSeek و دولت چین به طور بالقوه مستقیم‌تر از تصورات اولیه است. Feroot Security، یک شرکت امنیت سایبری کانادایی، پیوندهای قابل توجهی بین صفحه ورود به وب سایت DeepSeek و China Mobile، یک شرکت دولتی چین که قبلاً توسط دولت ایالات متحده تحریم شده بود، کشف کرد.

در ماه‌های اخیر، نگرانی‌ها در مورد امنیت ملی منجر به افزایش درخواست‌ها برای ممنوعیت DeepSeek شده است.

در 24 آوریل، چندین عضو مجلس نمایندگان ایالات متحده نامه‌ای به DeepSeek ارسال کردند و نگرانی‌هایی را در مورد ارتباطات این شرکت با حزب کمونیست چین (CCP) ابراز کردند و اطلاعاتی در مورد داده‌های ایالات متحده مورد استفاده برای آموزش مدل‌های هوش مصنوعی خود درخواست کردند.

نماینده برت گاتری، رئیس کمیته انرژی و بازرگانی مجلس، و نماینده گاس بیلیراکیس، رئیس زیرکمیته نوآوری، داده و تجارت، به همراه ده عضو دیگر زیرکمیته، نامه‌ای به DeepSeek ارسال کردند و نگرانی‌هایی را در مورد “جمع‌آوری اطلاعات شخصی آمریکایی‌ها” توسط این شرکت و خطرات مرتبط با امنیت ملی ابراز کردند.

در این نامه، گاتری و بیلیراکیس اظهار داشتند که “DeepSeek اعتراف می‌کند که اطلاعات شخصی کاربران آمریکایی را به سرورهایی در چین منتقل می‌کند، جایی که بدون شک مقامات وابسته به حزب کمونیست چین به این اطلاعات دسترسی خواهند داشت. ما نگران این هستیم که این رابطه نمایندگی با دشمن اصلی ما، داده‌ها و امنیت ملی ما را به خطر می‌اندازد.

“برای اطمینان از اینکه کاربران آمریکایی و مشاغل آن‌ها در برابر دخالت خارجی محافظت می‌شوند، ما تحقیقاتی را در مورد DeepSeek و تهدیدی که برای کشور ما ایجاد می‌کند، آغاز می‌کنیم.”

این نامه همچنین بیان داشت: “بر اساس گزارش‌های رسانه‌ای، این شرکت اطلاعات شخصی کاربران را با سایر نهادهای وابسته به حزب کمونیست چین، از جمله ByteDance نیز به اشتراک می‌گذارد.

“در همان زمان، محققان آسیب‌پذیری‌های مهمی را در کنترل‌های امنیتی ادعایی DeepSeek و محافظ‌های مدل کشف کرده‌اند. در پاسخ به این خطرات، تعداد فزاینده‌ای از ایالت‌ها، از جمله نیویورک، تگزاس و ویرجینیا، استفاده از DeepSeek را در دستگاه‌های دولتی ممنوع کرده‌اند و دادستان‌های کل ایالت خواستار ممنوعیت‌های گسترده‌تر شده‌اند.”

در 16 آوریل، کمیته منتخب مجلس نمایندگان ایالات متحده در مورد حزب کمونیست چین گزارشی را منتشر کرد که تاکید می‌کرد DeepSeek تهدیدی جدی برای امنیت ملی ایالات متحده است. این گزارش DeepSeek را به جمع‌آوری داده‌های کاربر برای CCP و دستکاری مخفیانه نتایج متهم کرد و به آخرین ابزار برای CCP برای زیباسازی خود، نظارت بر شهروندان خارجی و سرقت و تضعیف محدودیت‌های کنترل صادرات ایالات متحده تبدیل شده است.

این گزارش خاطرنشان کرد که در حالی که DeepSeek ممکن است فقط یک ربات چت هوش مصنوعی دیگر به نظر برسد که راهی برای تولید متن و پاسخ دادن به سؤالات در اختیار کاربران قرار می‌دهد، بررسی دقیق‌تر نشان می‌دهد که DeepSeek مخفیانه اطلاعات شخصی به دست آمده را به China Mobile منتقل می‌کند، که با ارتش چین ارتباط دارد و آسیب‌پذیری‌های امنیتی را برای کاربران ایجاد می‌کند. ایالات متحده قبلاً China Mobile را از فعالیت در ایالات متحده ممنوع کرده است.

نگاهی عمیق به کاستی‌های ادعایی DeepSeek

در حالی که هیاهوی اولیه پیرامون DeepSeek تصویری از یک اعجوبه هوش مصنوعی را ترسیم کرد که آماده است تا بخش‌های مختلف را متحول کند، بررسی دقیق‌تر واقعیت ظریف‌تر و پیچیده‌تری را نشان داده است. نگرانی‌های مطرح شده توسط رابین لی، مدیرعامل بایدو، و تحقیقات بعدی توسط کارشناسان امنیت سایبری و نهادهای دولتی، چندین حوزه مهم را برجسته می‌کند که در آن DeepSeek از انتظارات کوتاهی می‌کند و خطرات بالقوه را افزایش می‌دهد.

قابلیت های چندوجهی محدود

یکی از انتقادهای اصلی وارد شده به DeepSeek، توانایی محدود آن در پردازش محتوای چندوجهی است. برخلاف مدل‌های هوش مصنوعی پیشرفته‌تر که می‌توانند به طور یکپارچه اشکال مختلف داده، از جمله متن، تصاویر، صدا و ویدیو را ادغام و درک کنند، گزارش شده است که DeepSeek برای درک چیزی فراتر از ورودی متن پایه تلاش می‌کند. این محدودیت به طور قابل توجهی کاربرد آن را در سناریوهای دنیای واقعی که در آن اطلاعات اغلب در ترکیبی از قالب‌ها ارائه می‌شود، محدود می‌کند. به عنوان مثال، DeepSeek ممکن است برای تجزیه و تحلیل یک پست رسانه‌های اجتماعی که شامل متن و تصویر است یا برای رونویسی و درک یک کنفرانس ویدیویی مشکل داشته باشد.

مشکلات عملکرد: سرعت و هزینه

فراتر از محدودیت‌های آن در مدیریت رسانه‌های مختلف، DeepSeek همچنین با چالش‌هایی در رابطه با عملکرد خود مواجه است. به گفته رابین لی، این مدل با “سرعت” پایین و “هزینه” بالا مشخص می‌شود، که آن را برای توسعه‌دهندگانی که به دنبال ساخت برنامه‌های کاربردی هوش مصنوعی مقیاس‌پذیر و مقرون به صرفه هستند، جذابیت کمتری دارد. منابع محاسباتی بالایی که برای اجرای DeepSeek مورد نیاز است می‌تواند به هزینه‌های قابل توجهی برای مشاغل، به ویژه آن‌هایی که استقرارهای در مقیاس بزرگ دارند، تبدیل شود. علاوه بر این، سرعت پردازش پایین می‌تواند برنامه‌های کاربردی بی‌درنگ، مانند ربات‌های چت یا دستیارهای مجازی را که در آن پاسخگویی برای یک تجربه کاربری مثبت بسیار مهم است، مختل کند.

مشکل “نرخ توهم”

یکی دیگر از نگرانی‌های عمده در مورد DeepSeek، “نرخ توهم” بالای آن است، که به تمایل این مدل به تولید اطلاعات نادرست یا بی‌معنی اشاره دارد. این مسئله چالش قابل توجهی را برای برنامه‌هایی ایجاد می‌کند که به خروجی‌های قابل اعتماد و قابل اعتماد نیاز دارند. در حوزه‌های حیاتی، مانند مراقبت‌های بهداشتی یا مالی، که در آن دقت از اهمیت بالایی برخوردار است، خطر تولید اطلاعات نادرست یا گمراه‌کننده توسط DeepSeek می‌تواند عواقب جدی داشته باشد. “نرخ توهم” اعتبار مدل را تضعیف می‌کند و قابلیت استفاده آن را در زمینه‌های حساس محدود می‌کند.

آسیب پذیری های امنیتی و شکستن حفاظ

این افشاگری که DeepSeek بیشتر از سایر مدل‌های هوش مصنوعی پیشرو مستعد “شکستن حفاظ” است، نگرانی‌های امنیتی قابل توجهی را برمی‌انگیزد. “شکستن حفاظ” به فرآیند دور زدن محدودیت‌های ایمنی یک هوش مصنوعی برای استخراج محتوای مضر، غیراخلاقی یا غیرقانونی اشاره دارد. این واقعیت که DeepSeek را می‌توان به این روش آسان‌تر دستکاری کرد، نشان‌دهنده نقاط ضعف در معماری امنیتی زیربنایی آن است. این آسیب‌پذیری می‌تواند توسط بازیگران مخرب مورد سوء استفاده قرار گیرد تا اطلاعات نادرست تولید کنند، تبلیغات را منتشر کنند یا در سایر فعالیت‌های مضر شرکت کنند.

حریم خصوصی داده ها و خطرات امنیت ملی

ارتباطات ادعایی بین DeepSeek و دولت چین، به ویژه شیوه‌های به اشتراک گذاری داده‌های آن با China Mobile، زنگ خطر را در مورد حریم خصوصی داده‌ها و امنیت ملی به صدا درآورده است. انتقال اطلاعات شخصی کاربران آمریکایی به سرورهایی در چین، جایی که می‌تواند توسط مقامات وابسته به CCP قابل دسترسی باشد، نگرانی‌های جدی را در مورد نظارت بالقوه، جاسوسی و به خطر افتادن اطلاعات حساس ایجاد می‌کند. بررسی دولت ایالات متحده از DeepSeek بر آگاهی فزاینده از خطرات احتمالی مرتبط با مدل‌های هوش مصنوعی توسعه یافته توسط نهادهای خارجی با روابط نزدیک با دولت‌های متخاصم تأکید می‌کند.

پیامدهای گسترده تر

نگرانی‌های مربوط به DeepSeek فراتر از محدودیت‌ها و آسیب‌پذیری‌های خاص این مدل هوش مصنوعی خاص است. آن‌ها چالش‌ها و خطرات گسترده‌تری را منعکس می‌کنند که با توسعه و استقرار سریع فناوری‌های هوش مصنوعی مرتبط هستند. پرونده DeepSeek بر اهمیت موارد زیر تأکید می‌کند:

  • آزمایش و ارزیابی دقیق: آزمایش و ارزیابی کامل برای شناسایی و رسیدگی به نقاط ضعف، تعصبات و آسیب‌پذیری‌های امنیتی بالقوه در مدل‌های هوش مصنوعی قبل از استقرار گسترده آن‌ها ضروری است.
  • شفافیت و پاسخگویی: توسعه‌دهندگان باید در مورد داده‌های مورد استفاده برای آموزش مدل‌های خود و الگوریتم‌هایی که به کار می‌برند شفاف باشند. آن‌ها همچنین باید در قبال خروجی‌ها و پیامدهای سیستم‌های هوش مصنوعی خود پاسخگو باشند.
  • حریم خصوصی داده ها و حفاظت های امنیتی: اقدامات قوی حریم خصوصی داده ها و امنیتی برای محافظت از اطلاعات شخصی کاربران در برابر دسترسی غیرمجاز، سوء استفاده یا استثمار مورد نیاز است.
  • همکاری بین المللی: همکاری بین المللی برای ایجاد استانداردها و مقررات مشترک برای توسعه و استقرار هوش مصنوعی بسیار مهم است و اطمینان حاصل می‌کند که این فناوری‌ها به طور مسئولانه و اخلاقی استفاده می‌شوند.
  • تفکر انتقادی و سواد رسانه ای: کاربران باید تشویق شوند تا اطلاعات تولید شده توسط مدل‌های هوش مصنوعی را به طور انتقادی ارزیابی کنند و مهارت‌های سواد رسانه ای را برای تشخیص محتوای دقیق و گمراه کننده توسعه دهند.

جنجال DeepSeek به عنوان یک داستان هشدار دهنده عمل می‌کند و به ما یادآوری می‌کند که تلاش برای نوآوری هوش مصنوعی باید با بررسی دقیق خطرات بالقوه و پیامدهای اجتماعی متعادل شود.