دیپ‌سیک: به‌سوی پذیرش هوش مصنوعی سازمانی

گام دوم دیپ‌سیک: تغییری به سوی پذیرش هوش مصنوعی سازمانی

دیپ‌سیک (DeepSeek)، یک استارتاپ نوظهور هوش مصنوعی چینی، با مدل‌های پایه‌ای به طور قابل توجهی تخفیف‌داده‌شده، موجی به راه انداخته است. این حرکت پتانسیل آن را دارد که با پرداختن به یکی از مهم‌ترین موانع، یعنی هزینه، پذیرش هوش مصنوعی را برای کسب‌وکارها متحول کند.

هزینه بالای پذیرش هوش مصنوعی

به گفته تحلیلگران برد سیلز (Brad Sills) و کارلی لیو (Carly Liu) از BofA Global Research، هزینه‌های مرتبط با برنامه‌های کاربردی هوش مصنوعی، مانع اصلی گسترش پیاده‌سازی آن‌ها است. گزارش آن‌ها که در سه‌شنبه، ۲۸ ژانویه منتشر شد، نشان می‌دهد که پیشرفت‌ها در کاهش هزینه می‌تواند قیمت‌ها را بیشتر کاهش دهد و منجر به افزایش نرخ پذیرش شود.

اعلامیه دیپ‌سیک در دوشنبه، ۲۷ ژانویه، شوک‌هایی را در صنعت هوش مصنوعی به وجود آورد و باعث کاهش سهام چندین شرکت هوش مصنوعی شد. این شرکت از توانایی خود برای آموزش یک مدل پایه تنها با ۵.۵۸ میلیون دلار با استفاده از ۲۰۴۸ تراشه Nvidia H800 خبر داد. این رقم در تضاد شدید با هزینه‌های تخمینی OpenAI و Anthropic قرار دارد که بین ۱۰۰ میلیون تا یک میلیارد دلار است و شامل استفاده از هزاران تراشه هوش مصنوعی Nvidia می‌شود.

روی بنش (Roy Benesh)، مدیر ارشد فناوری در eSIMple، بر پتانسیل تحول‌آفرین دستاورد دیپ‌سیک تأکید کرد و اظهار داشت که این امر شرکت‌های کوچک‌تر، توسعه‌دهندگان منفرد و حتی محققان را قادر می‌سازد تا بدون تحمل هزینه‌های گزاف، از قدرت هوش مصنوعی استفاده کنند. این افزایش دسترسی می‌تواند توسعه ایده‌ها و فناوری‌های نوآورانه را تقویت کند و منجر به رقابت بیشتر در این زمینه شود. در نتیجه، مشتریان می‌توانند از گزینه‌های جدید بهره‌مند شوند، در حالی که شرکت‌های هوش مصنوعی تثبیت‌شده احتمالاً قیمت‌های خود را کاهش می‌دهند و پیشرفت‌های تکنولوژیکی را تسریع می‌کنند.

تحلیلگران BofA نمونه‌هایی از هزینه‌های مرتبط با برنامه‌های کاربردی هوش مصنوعی موجود ارائه کردند. Microsoft’s 365 Copilot Chat بسته به پیچیدگی درخواست، بین ۱ سنت و ۳۰ سنت برای هر پیام (prompt) هزینه دارد. Salesforce’s Agentforce for Service Cloud نرخ ثابت ۲ دلار برای هر تبدیل (conversion) دریافت می‌کند.

در حالی که BofA اذعان داشت که رقم ۵.۵۸ میلیون دلاری ارائه شده توسط دیپ‌سیک تا حدودی گمراه‌کننده است، زیرا هزینه‌های مربوط به تحقیق، آزمایش‌ها، معماری‌ها، الگوریتم‌ها و داده‌ها را شامل نمی‌شود، اما تحلیلگران بر اهمیت نوآوری‌های این استارتاپ در نشان دادن امکان‌پذیری روش‌های آموزش کم‌هزینه‌تر تأکید کردند.

پیش‌آموزش در مقابل استنتاج: درک هزینه‌ها

مدل‌های پایه هوش مصنوعی، مانند GPT-4o OpenAI و Gemini Google، فرآیندی به نام پیش‌آموزش را طی می‌کنند، جایی که در معرض مقادیر عظیمی از داده‌ها، مانند کل اینترنت، قرار می‌گیرند تا دانش کلی را توسعه دهند. با این حال، برای اینکه این مدل‌ها مرتبط‌تر و مفیدتر برای شرکت‌ها و صنایع خاص باشند، شرکت‌ها باید آن‌ها را با استفاده از داده‌های خود بیشتر آموزش یا تنظیم دقیق (fine-tune) کنند.

هنگامی که مدل هوش مصنوعی تنظیم دقیق شد، می‌تواند پیام‌های کاربر را پردازش کرده و پاسخ‌های مرتبط تولید کند. با این حال، فرآیند ارسال پیام به مدل و دریافت پاسخ، هزینه‌های استنتاج را به همراه دارد که هزینه‌های مرتبط با تعامل با مدل با داده‌های جدید برای درک و تجزیه و تحلیل است.

توجه به این نکته مهم است که اکثر شرکت‌ها هزینه آموزش مدل‌های پایه را متحمل نمی‌شوند. این مسئولیت بر عهده توسعه‌دهندگان این مدل‌ها، از جمله OpenAI، Google، Meta، Amazon، Microsoft، Anthropic، Cohere، Hugging Face، Mistral AI، Stability AI، xAI، IBM، Nvidia، آزمایشگاه‌های تحقیقاتی خاص و غول‌های فناوری چینی مانند Baidu و Alibaba است.

کسب‌وکارها در درجه اول هزینه‌های استنتاج را برای پردازش بارهای کاری هوش مصنوعی متحمل می‌شوند که بخش عمده‌ای از هزینه‌های مربوط به هوش مصنوعی را تشکیل می‌دهد.

ارتباط چین: هزینه‌های استنتاج دیپ‌سیک و نگرانی‌های مربوط به حریم خصوصی

دیپ‌سیک خدمات استنتاج خود را با هزینه‌های بسیار کمتری در مقایسه با شرکت‌های Silicon Valley ارائه می‌دهد. با این حال، هنگام استفاده از این خدمات، ملاحظات خاصی وجود دارد که باید در نظر داشته باشید.

بر اساس سیاست حفظ حریم خصوصی دیپ‌سیک، اطلاعات کاربر در سرورهای واقع در چین ذخیره می‌شود. این شرکت همچنین اظهار می‌دارد که به تعهدات قانونی پایبند خواهد بود و وظایف را در راستای منافع عمومی یا برای محافظت از منافع حیاتی کاربران خود و سایر افراد انجام خواهد داد.

قانون اطلاعات ملی چین، به ویژه ماده ۷، تصریح می‌کند که همه سازمان‌ها و شهروندان باید از تلاش‌های اطلاعات ملی مطابق با قانون حمایت، کمک و همکاری کنند و از اسرار کار اطلاعات ملی که از آن آگاه هستند، محافظت کنند.

کوین سوریس (Kevin Surace)، مدیرعامل Appvance، در مورد حریم خصوصی ابراز نگرانی کرد و اظهار داشت که جمع‌آوری داده‌ها از کاربران یک عمل رایج در چین است. او به کاربران توصیه کرد احتیاط کنند.

در آزمایشی که توسط PYMNTS انجام شد، از ربات چت دیپ‌سیک خواسته شد تا توضیح دهد که چگونه اعتراضات میدان Tiananmen در سال ۱۹۸۹ بر سیاست چین تأثیر گذاشته است. ربات چت پاسخ داد: “متاسفم، من هنوز مطمئن نیستم که چگونه به این نوع سوالات نزدیک شوم.”

تیم انکینگ (Tim Enneking)، مدیرعامل Presearch، خاطرنشان کرد که دیپ‌سیک یک شرکت ۱۰۰% متعلق به چین است که در چین واقع شده است. او خاطرنشان کرد که عدم توانایی ربات چت در ارائه اطلاعات در مورد میدان Tiananmen یا شخصیت‌های ارشد دولت چین نشان‌دهنده محدودیت‌هایی در عینیت فناوری است. در حالی که انکینگ پتانسیل هیجان‌انگیز این فناوری را تصدیق کرد، اما نگرانی‌هایی را در مورد کنترل آن ابراز کرد.

با این حال، انکینگ همچنین بر ماهیت متن‌باز مدل‌های دیپ‌سیک تأکید کرد که امکان بازنگری برای حذف کنترل‌های دولتی و شرکتی را فراهم می‌کند. او معتقد است که خلاقیت مهندسی این شرکت فرصت‌هایی را برای شرکت‌ها و کشورهای کوچک‌تر ایجاد می‌کند تا در چشم‌انداز هوش مصنوعی مولد شرکت کرده و موفق شوند.

پتانسیل دیپ‌سیک برای کاهش هزینه‌های استنتاج برای همه

رویکرد نوآورانه دیپ‌سیک برای آموزش مدل‌های پایه با هزینه کمتر، پیامدهای مثبتی برای شرکت‌هایی مانند Microsoft دارد که می‌توانند به کاهش هزینه محاسبات هوش مصنوعی و افزایش مقیاس ادامه دهند. به گفته سیلز و لیو، هزینه‌های محاسباتی کمتر می‌تواند منجر به بهبود حاشیه‌ها در پیشنهادات دارای هوش مصنوعی شود.

در یادداشت تحقیقاتی جداگانه‌ای، تحلیلگران BofA، آلکش شاه (Alkesh Shah)، اندرو ماس (Andrew Moss) و برد سیلز پیشنهاد کردند که هزینه‌های محاسباتی کمتر هوش مصنوعی می‌تواند خدمات گسترده‌تر هوش مصنوعی را در بخش‌های مختلف، از خودرو گرفته تا تلفن‌های هوشمند، امکان‌پذیر کند.

در حالی که بعید است توسعه‌دهندگان مدل‌های پایه مانند OpenAI بلافاصله به هزینه‌های آموزشی به اندازه دیپ‌سیک دست یابند، تحلیلگران معتقدند که تکنیک‌های نوآورانه آموزشی و پس از آموزش دیپ‌سیک توسط توسعه‌دهندگان مدل‌های پیشرو رقیب برای افزایش کارایی پذیرفته می‌شود. با این حال، آن‌ها تأکید می‌کنند که مدل‌های فعلی همچنان به سرمایه‌گذاری قابل توجهی نیاز دارند زیرا پایه و اساس نمایندگان هوش مصنوعی را تشکیل می‌دهند.

در درازمدت، تحلیلگران پیش‌بینی می‌کنند که با هوشمندتر و ارزان‌تر شدن ربات‌های چت، خلبان‌های خودکار و نمایندگان، پدیده‌ای که به عنوان پارادوکس Jevons شناخته می‌شود، پذیرش هوش مصنوعی توسط شرکت‌ها تسریع شود.

ساتیا نادلا (Satya Nadella)، مدیرعامل Microsoft، این احساس را در X تکرار کرد و اظهار داشت که پارادوکس Jevons در حال اجرا است زیرا هوش مصنوعی کارآمدتر و در دسترس‌تر می‌شود. او معتقد است که این امر منجر به افزایش استفاده از هوش مصنوعی می‌شود و آن را به کالایی تبدیل می‌کند که نمی‌توانیم به اندازه کافی از آن استفاده کنیم.

نگاهی عمیق‌تر به مدل‌های پایه و تأثیر آن‌ها

مدل‌های پایه، ستون فقرات هوش مصنوعی مدرن، در حال ایجاد انقلاب در نحوه عملکرد کسب‌وکارها و تعامل با فناوری هستند. این مدل‌ها که بر روی مجموعه‌های داده عظیمی آموزش داده شده‌اند، توانایی انجام طیف گسترده‌ای از وظایف، از پردازش زبان طبیعی گرفته تا تشخیص تصویر را دارند. با این حال، توسعه و استقرار این مدل‌ها شامل تعامل پیچیده‌ای از عوامل، از جمله هزینه‌های آموزش، هزینه‌های استنتاج، حریم خصوصی داده‌ها و ملاحظات اخلاقی است.

درک مدل‌های پایه

در هسته خود، مدل‌های پایه شبکه‌های عصبی بزرگی هستند که بر روی مجموعه‌های داده عظیمی آموزش داده شده‌اند. این فرآیند آموزشی به آن‌ها اجازه می‌دهد تا الگوها و روابط را در داده‌ها یاد بگیرند و آن‌ها را قادر می‌سازد تا انواع وظایف را با دقت قابل توجهی انجام دهند. برخی از نمونه‌های مدل‌های پایه عبارتند از:

  • GPT-4o: یک مدل زبانی قدرتمند که توسط OpenAI توسعه یافته است، قادر به تولید متن با کیفیت انسانی، ترجمه زبان‌ها و پاسخ دادن به سؤالات به روشی جامع است.
  • Gemini Google: یک مدل هوش مصنوعی چندوجهی است که می‌تواند انواع مختلف داده‌ها، از جمله متن، تصاویر و صدا را پردازش و درک کند.

این مدل‌ها به وظایف خاصی محدود نمی‌شوند، اما می‌توان آن‌ها را با طیف گسترده‌ای از برنامه‌های کاربردی تطبیق داد و آن‌ها را به ابزارهای همه‌کاره‌ای برای مشاغل تبدیل کرد.

نقش پیش‌آموزش و تنظیم دقیق

توسعه یک مدل پایه به طور معمول شامل دو مرحله کلیدی است: پیش‌آموزش و تنظیم دقیق.

  • پیش‌آموزش: در این مرحله، مدل بر روی یک مجموعه داده عظیم، مانند کل اینترنت، آموزش داده می‌شود تا دانش عمومی و مهارت‌های زبانی را یاد بگیرد. این فرآیند مدل را قادر می‌سازد تا متن را درک و تولید کند، زبان‌ها را ترجمه کند و سایر وظایف اساسی را انجام دهد.
  • تنظیم دقیق: در این مرحله، مدل از قبل آموزش‌دیده بر روی یک مجموعه داده کوچکتر و خاص‌تر مربوط به یک کار یا صنعت خاص، بیشتر آموزش داده می‌شود. این فرآیند به مدل اجازه می‌دهد تا دانش و مهارت‌های خود را با نیازهای خاص برنامه تطبیق دهد.

به عنوان مثال، یک مدل زبانی از قبل آموزش‌دیده می‌تواند بر روی یک مجموعه داده از تعاملات خدمات مشتری تنظیم دقیق شود تا یک ربات چت ایجاد شود که بتواند به طور موثر به سؤالات مشتری پاسخ دهد.

هزینه آموزش و استنتاج

هزینه‌های مرتبط با مدل‌های پایه را می‌توان به دو دسته اصلی تقسیم کرد: هزینه‌های آموزش و هزینه‌های استنتاج.

  • هزینه‌های آموزش: این هزینه‌ها شامل منابع محاسباتی، داده‌ها و تخصص مورد نیاز برای آموزش مدل پایه است. آموزش یک مدل پایه بزرگ می‌تواند بسیار گران باشد و اغلب به میلیون‌ها دلار سرمایه‌گذاری نیاز دارد.
  • هزینه‌های استنتاج: این هزینه‌ها شامل منابع محاسباتی مورد نیاز برای استفاده از مدل آموزش‌دیده برای پیش‌بینی یا تولید خروجی است. هزینه‌های استنتاج می‌تواند بسته به اندازه و پیچیدگی مدل، میزان داده‌هایی که پردازش می‌شود و زیرساختی که استفاده می‌شود، متفاوت باشد.

نوآوری دیپ‌سیک در توانایی آن برای کاهش قابل توجه هزینه‌های آموزش مرتبط با مدل‌های پایه نهفته است و آن‌ها را برای طیف وسیع‌تری از مشاغل و سازمان‌ها در دسترس قرار می‌دهد.

پرداختن به نگرانی‌های مربوط به حریم خصوصی و اخلاقی

استفاده از مدل‌های پایه سؤالات مهمی را در مورد حریم خصوصی داده‌ها و ملاحظات اخلاقی مطرح می‌کند. مدل‌های پایه بر روی مجموعه‌های داده عظیمی آموزش داده می‌شوند که ممکن است حاوی اطلاعات حساس یا شخصی باشند. بسیار مهم است که اطمینان حاصل شود که این مدل‌ها به روشی مسئولانه و اخلاقی، با احترام به حریم خصوصی کاربر و اجتناب از تعصب، استفاده می‌شوند.

برخی از استراتژی‌ها برای پرداختن به این نگرانی‌ها عبارتند از:

  • ناشناس‌سازی داده‌ها: حذف یا پوشاندن اطلاعات شخصی از داده‌های آموزشی برای محافظت از حریم خصوصی کاربر.
  • تشخیص و کاهش تعصب: شناسایی و رسیدگی به تعصب‌ها در داده‌های آموزشی برای اطمینان از اینکه مدل کلیشه‌های مضر یا رویه‌های تبعیض‌آمیز را تداوم نمی‌بخشد.
  • شفافیت و پاسخگویی: ارائه اطلاعات واضح در مورد نحوه عملکرد مدل و نحوه استفاده از آن، و ایجاد سازوکارهایی برای پاسخگویی در صورت بروز خطا یا عواقب ناخواسته.

از آنجایی که مدل‌های پایه رایج‌تر می‌شوند، بسیار مهم است که به طور فعال به این نگرانی‌های مربوط به حریم خصوصی و اخلاقی رسیدگی شود تا اطمینان حاصل شود که آن‌ها به نفع جامعه استفاده می‌شوند.

آینده مدل‌های پایه

مدل‌های پایه به سرعت در حال تکامل هستند و تأثیر بالقوه آن‌ها بر جامعه بسیار زیاد است. در آینده، می‌توانیم انتظار داشته باشیم که:

  • مدل‌های قدرتمندتر و همه‌کاره‌تر: از آنجایی که محققان به توسعه معماری‌ها و تکنیک‌های آموزشی جدید ادامه می‌دهند، مدل‌های پایه قدرتمندتر و همه‌کاره‌تر می‌شوند و قادر به انجام طیف گسترده‌تری از وظایف با دقت بیشتر هستند.
  • افزایش دسترسی: از آنجایی که هزینه‌های آموزش کاهش می‌یابد و پلتفرم‌های هوش مصنوعی مبتنی بر ابر رایج‌تر می‌شوند، مدل‌های پایه برای مشاغل در هر اندازه در دسترس‌تر می‌شوند.
  • برنامه‌های کاربردی و موارد استفاده جدید: مدل‌های پایه همچنان در برنامه‌های کاربردی جدید و نوآورانه در صنایع مختلف، از مراقبت‌های بهداشتی گرفته تا امور مالی تا آموزش، استفاده می‌شوند.

ظهور مدل‌های پایه نشان‌دهنده یک تغییر پارادایم در زمینه هوش مصنوعی است. با درک قابلیت‌ها، هزینه‌ها و ملاحظات اخلاقی آن‌ها، می‌توانیم از قدرت آن‌ها برای ایجاد آینده‌ای بهتر استفاده کنیم.

سهم دیپ‌سیک در دموکراتیک کردن هوش مصنوعی

دستاورد دیپ‌سیک در کاهش قابل توجه هزینه آموزش مدل‌های پایه، نقطه عطفی در دموکراتیک کردن هوش مصنوعی است. دیپ‌سیک با کاهش موانع ورود، طیف وسیع‌تری از سازمان‌ها و افراد را قادر می‌سازد تا در انقلاب هوش مصنوعی شرکت کنند.

تأثیر بر مشاغل کوچک‌تر

مشاغل کوچک‌تر اغلب فاقد منابع و تخصص برای توسعه و استقرار مدل‌های هوش مصنوعی خود هستند. مدل‌های پایه مقرون به صرفه دیپ‌سیک، این مشاغل را قادر می‌سازد تا به فناوری پیشرفته هوش مصنوعی دسترسی پیدا کنند که قبلاً دور از دسترس بود. این می‌تواند زمین بازی را هموار کند و به مشاغل کوچک‌تر اجازه دهد تا به طور موثرتری با شرکت‌های بزرگ‌تر و تثبیت‌شده رقابت کنند.

به عنوان مثال، یک تجارت کوچک تجارت الکترونیک می‌تواند از مدل‌های دیپ‌سیک برای شخصی‌سازی توصیه‌های محصول برای مشتریان خود، بهبود خدمات مشتری یا خودکارسازی کمپین‌های بازاریابی خود استفاده کند.

توانمندسازی توسعه‌دهندگان انفرادی

مدل‌های دیپ‌سیک همچنین توسعه‌دهندگان و محققان انفرادی را قادر می‌سازد تا برنامه‌های کاربردی و نوآوری‌های جدید هوش مصنوعی را کشف کنند. توسعه‌دهندگان با دسترسی به مدل‌های پایه مقرون به صرفه، می‌توانند ایده‌های مختلف را آزمایش کنند، ابزارهای جدید مبتنی بر هوش مصنوعی را توسعه دهند و به پیشرفت فناوری هوش مصنوعی کمک کنند.

این می‌تواند منجر به افزایش نوآوری شود، زیرا افراد بیشتری فرصت شرکت در توسعه هوش مصنوعی را دارند.

پتانسیل همکاری متن‌باز

رویکرد متن‌باز دیپ‌سیک بیشتر باعث ترویج همکاری و نوآوری در جامعه هوش مصنوعی می‌شود. دیپ‌سیک با در دسترس قرار دادن مدل‌های خود برای عموم، توسعه‌دهندگان را تشویق می‌کند تا در بهبود آن‌ها مشارکت کنند، اشکالات را شناسایی و رفع کنند و ویژگی‌های جدیدی را توسعه دهند.

این رویکرد مشارکتی می‌تواند توسعه فناوری هوش مصنوعی را تسریع کند و اطمینان حاصل کند که از آن به نفع همه استفاده می‌شود.

تسریع پذیرش هوش مصنوعی

دیپ‌سیک با کاهش هزینه هوش مصنوعی، پذیرش هوش مصنوعی را در صنایع مختلف تسریع می‌کند. از آنجایی که هوش مصنوعی مقرون به صرفه‌تر و در دسترس‌تر می‌شود، مشاغل بیشتری می‌توانند آن را در عملیات خود ادغام کنند و منجر به افزایش بهره‌وری، کارایی و نوآوری شود.

این می‌تواند تأثیر عمیقی بر اقتصاد جهانی داشته باشد و رشد را هدایت کند و فرصت‌های جدیدی ایجاد کند.

یک اکوسیستم هوش مصنوعی فراگیرتر

تلاش‌های دیپ‌سیک برای دموکراتیک کردن هوش مصنوعی به ایجاد یک اکوسیستم هوش مصنوعی فراگیرتر کمک می‌کند، جایی که افراد بیشتری فرصت شرکت در توسعه و استفاده از هوش مصنوعی را دارند. این می‌تواند به اطمینان از این کمک کند که هوش مصنوعی به گونه‌ای استفاده می‌شود که به نفع همه اعضای جامعه باشد، نه فقط تعداد معدودی.

دیپ‌سیک با توانمندسازی مشاغل کوچک‌تر، توسعه‌دهندگان انفرادی و محققان، در حال پرورش یک چشم‌انداز هوش مصنوعی متنوع‌تر و نوآورانه‌تر است.