گام دوم دیپسیک: تغییری به سوی پذیرش هوش مصنوعی سازمانی
دیپسیک (DeepSeek)، یک استارتاپ نوظهور هوش مصنوعی چینی، با مدلهای پایهای به طور قابل توجهی تخفیفدادهشده، موجی به راه انداخته است. این حرکت پتانسیل آن را دارد که با پرداختن به یکی از مهمترین موانع، یعنی هزینه، پذیرش هوش مصنوعی را برای کسبوکارها متحول کند.
هزینه بالای پذیرش هوش مصنوعی
به گفته تحلیلگران برد سیلز (Brad Sills) و کارلی لیو (Carly Liu) از BofA Global Research، هزینههای مرتبط با برنامههای کاربردی هوش مصنوعی، مانع اصلی گسترش پیادهسازی آنها است. گزارش آنها که در سهشنبه، ۲۸ ژانویه منتشر شد، نشان میدهد که پیشرفتها در کاهش هزینه میتواند قیمتها را بیشتر کاهش دهد و منجر به افزایش نرخ پذیرش شود.
اعلامیه دیپسیک در دوشنبه، ۲۷ ژانویه، شوکهایی را در صنعت هوش مصنوعی به وجود آورد و باعث کاهش سهام چندین شرکت هوش مصنوعی شد. این شرکت از توانایی خود برای آموزش یک مدل پایه تنها با ۵.۵۸ میلیون دلار با استفاده از ۲۰۴۸ تراشه Nvidia H800 خبر داد. این رقم در تضاد شدید با هزینههای تخمینی OpenAI و Anthropic قرار دارد که بین ۱۰۰ میلیون تا یک میلیارد دلار است و شامل استفاده از هزاران تراشه هوش مصنوعی Nvidia میشود.
روی بنش (Roy Benesh)، مدیر ارشد فناوری در eSIMple، بر پتانسیل تحولآفرین دستاورد دیپسیک تأکید کرد و اظهار داشت که این امر شرکتهای کوچکتر، توسعهدهندگان منفرد و حتی محققان را قادر میسازد تا بدون تحمل هزینههای گزاف، از قدرت هوش مصنوعی استفاده کنند. این افزایش دسترسی میتواند توسعه ایدهها و فناوریهای نوآورانه را تقویت کند و منجر به رقابت بیشتر در این زمینه شود. در نتیجه، مشتریان میتوانند از گزینههای جدید بهرهمند شوند، در حالی که شرکتهای هوش مصنوعی تثبیتشده احتمالاً قیمتهای خود را کاهش میدهند و پیشرفتهای تکنولوژیکی را تسریع میکنند.
تحلیلگران BofA نمونههایی از هزینههای مرتبط با برنامههای کاربردی هوش مصنوعی موجود ارائه کردند. Microsoft’s 365 Copilot Chat بسته به پیچیدگی درخواست، بین ۱ سنت و ۳۰ سنت برای هر پیام (prompt) هزینه دارد. Salesforce’s Agentforce for Service Cloud نرخ ثابت ۲ دلار برای هر تبدیل (conversion) دریافت میکند.
در حالی که BofA اذعان داشت که رقم ۵.۵۸ میلیون دلاری ارائه شده توسط دیپسیک تا حدودی گمراهکننده است، زیرا هزینههای مربوط به تحقیق، آزمایشها، معماریها، الگوریتمها و دادهها را شامل نمیشود، اما تحلیلگران بر اهمیت نوآوریهای این استارتاپ در نشان دادن امکانپذیری روشهای آموزش کمهزینهتر تأکید کردند.
پیشآموزش در مقابل استنتاج: درک هزینهها
مدلهای پایه هوش مصنوعی، مانند GPT-4o OpenAI و Gemini Google، فرآیندی به نام پیشآموزش را طی میکنند، جایی که در معرض مقادیر عظیمی از دادهها، مانند کل اینترنت، قرار میگیرند تا دانش کلی را توسعه دهند. با این حال، برای اینکه این مدلها مرتبطتر و مفیدتر برای شرکتها و صنایع خاص باشند، شرکتها باید آنها را با استفاده از دادههای خود بیشتر آموزش یا تنظیم دقیق (fine-tune) کنند.
هنگامی که مدل هوش مصنوعی تنظیم دقیق شد، میتواند پیامهای کاربر را پردازش کرده و پاسخهای مرتبط تولید کند. با این حال، فرآیند ارسال پیام به مدل و دریافت پاسخ، هزینههای استنتاج را به همراه دارد که هزینههای مرتبط با تعامل با مدل با دادههای جدید برای درک و تجزیه و تحلیل است.
توجه به این نکته مهم است که اکثر شرکتها هزینه آموزش مدلهای پایه را متحمل نمیشوند. این مسئولیت بر عهده توسعهدهندگان این مدلها، از جمله OpenAI، Google، Meta، Amazon، Microsoft، Anthropic، Cohere، Hugging Face، Mistral AI، Stability AI، xAI، IBM، Nvidia، آزمایشگاههای تحقیقاتی خاص و غولهای فناوری چینی مانند Baidu و Alibaba است.
کسبوکارها در درجه اول هزینههای استنتاج را برای پردازش بارهای کاری هوش مصنوعی متحمل میشوند که بخش عمدهای از هزینههای مربوط به هوش مصنوعی را تشکیل میدهد.
ارتباط چین: هزینههای استنتاج دیپسیک و نگرانیهای مربوط به حریم خصوصی
دیپسیک خدمات استنتاج خود را با هزینههای بسیار کمتری در مقایسه با شرکتهای Silicon Valley ارائه میدهد. با این حال، هنگام استفاده از این خدمات، ملاحظات خاصی وجود دارد که باید در نظر داشته باشید.
بر اساس سیاست حفظ حریم خصوصی دیپسیک، اطلاعات کاربر در سرورهای واقع در چین ذخیره میشود. این شرکت همچنین اظهار میدارد که به تعهدات قانونی پایبند خواهد بود و وظایف را در راستای منافع عمومی یا برای محافظت از منافع حیاتی کاربران خود و سایر افراد انجام خواهد داد.
قانون اطلاعات ملی چین، به ویژه ماده ۷، تصریح میکند که همه سازمانها و شهروندان باید از تلاشهای اطلاعات ملی مطابق با قانون حمایت، کمک و همکاری کنند و از اسرار کار اطلاعات ملی که از آن آگاه هستند، محافظت کنند.
کوین سوریس (Kevin Surace)، مدیرعامل Appvance، در مورد حریم خصوصی ابراز نگرانی کرد و اظهار داشت که جمعآوری دادهها از کاربران یک عمل رایج در چین است. او به کاربران توصیه کرد احتیاط کنند.
در آزمایشی که توسط PYMNTS انجام شد، از ربات چت دیپسیک خواسته شد تا توضیح دهد که چگونه اعتراضات میدان Tiananmen در سال ۱۹۸۹ بر سیاست چین تأثیر گذاشته است. ربات چت پاسخ داد: “متاسفم، من هنوز مطمئن نیستم که چگونه به این نوع سوالات نزدیک شوم.”
تیم انکینگ (Tim Enneking)، مدیرعامل Presearch، خاطرنشان کرد که دیپسیک یک شرکت ۱۰۰% متعلق به چین است که در چین واقع شده است. او خاطرنشان کرد که عدم توانایی ربات چت در ارائه اطلاعات در مورد میدان Tiananmen یا شخصیتهای ارشد دولت چین نشاندهنده محدودیتهایی در عینیت فناوری است. در حالی که انکینگ پتانسیل هیجانانگیز این فناوری را تصدیق کرد، اما نگرانیهایی را در مورد کنترل آن ابراز کرد.
با این حال، انکینگ همچنین بر ماهیت متنباز مدلهای دیپسیک تأکید کرد که امکان بازنگری برای حذف کنترلهای دولتی و شرکتی را فراهم میکند. او معتقد است که خلاقیت مهندسی این شرکت فرصتهایی را برای شرکتها و کشورهای کوچکتر ایجاد میکند تا در چشمانداز هوش مصنوعی مولد شرکت کرده و موفق شوند.
پتانسیل دیپسیک برای کاهش هزینههای استنتاج برای همه
رویکرد نوآورانه دیپسیک برای آموزش مدلهای پایه با هزینه کمتر، پیامدهای مثبتی برای شرکتهایی مانند Microsoft دارد که میتوانند به کاهش هزینه محاسبات هوش مصنوعی و افزایش مقیاس ادامه دهند. به گفته سیلز و لیو، هزینههای محاسباتی کمتر میتواند منجر به بهبود حاشیهها در پیشنهادات دارای هوش مصنوعی شود.
در یادداشت تحقیقاتی جداگانهای، تحلیلگران BofA، آلکش شاه (Alkesh Shah)، اندرو ماس (Andrew Moss) و برد سیلز پیشنهاد کردند که هزینههای محاسباتی کمتر هوش مصنوعی میتواند خدمات گستردهتر هوش مصنوعی را در بخشهای مختلف، از خودرو گرفته تا تلفنهای هوشمند، امکانپذیر کند.
در حالی که بعید است توسعهدهندگان مدلهای پایه مانند OpenAI بلافاصله به هزینههای آموزشی به اندازه دیپسیک دست یابند، تحلیلگران معتقدند که تکنیکهای نوآورانه آموزشی و پس از آموزش دیپسیک توسط توسعهدهندگان مدلهای پیشرو رقیب برای افزایش کارایی پذیرفته میشود. با این حال، آنها تأکید میکنند که مدلهای فعلی همچنان به سرمایهگذاری قابل توجهی نیاز دارند زیرا پایه و اساس نمایندگان هوش مصنوعی را تشکیل میدهند.
در درازمدت، تحلیلگران پیشبینی میکنند که با هوشمندتر و ارزانتر شدن رباتهای چت، خلبانهای خودکار و نمایندگان، پدیدهای که به عنوان پارادوکس Jevons شناخته میشود، پذیرش هوش مصنوعی توسط شرکتها تسریع شود.
ساتیا نادلا (Satya Nadella)، مدیرعامل Microsoft، این احساس را در X تکرار کرد و اظهار داشت که پارادوکس Jevons در حال اجرا است زیرا هوش مصنوعی کارآمدتر و در دسترستر میشود. او معتقد است که این امر منجر به افزایش استفاده از هوش مصنوعی میشود و آن را به کالایی تبدیل میکند که نمیتوانیم به اندازه کافی از آن استفاده کنیم.
نگاهی عمیقتر به مدلهای پایه و تأثیر آنها
مدلهای پایه، ستون فقرات هوش مصنوعی مدرن، در حال ایجاد انقلاب در نحوه عملکرد کسبوکارها و تعامل با فناوری هستند. این مدلها که بر روی مجموعههای داده عظیمی آموزش داده شدهاند، توانایی انجام طیف گستردهای از وظایف، از پردازش زبان طبیعی گرفته تا تشخیص تصویر را دارند. با این حال، توسعه و استقرار این مدلها شامل تعامل پیچیدهای از عوامل، از جمله هزینههای آموزش، هزینههای استنتاج، حریم خصوصی دادهها و ملاحظات اخلاقی است.
درک مدلهای پایه
در هسته خود، مدلهای پایه شبکههای عصبی بزرگی هستند که بر روی مجموعههای داده عظیمی آموزش داده شدهاند. این فرآیند آموزشی به آنها اجازه میدهد تا الگوها و روابط را در دادهها یاد بگیرند و آنها را قادر میسازد تا انواع وظایف را با دقت قابل توجهی انجام دهند. برخی از نمونههای مدلهای پایه عبارتند از:
- GPT-4o: یک مدل زبانی قدرتمند که توسط OpenAI توسعه یافته است، قادر به تولید متن با کیفیت انسانی، ترجمه زبانها و پاسخ دادن به سؤالات به روشی جامع است.
- Gemini Google: یک مدل هوش مصنوعی چندوجهی است که میتواند انواع مختلف دادهها، از جمله متن، تصاویر و صدا را پردازش و درک کند.
این مدلها به وظایف خاصی محدود نمیشوند، اما میتوان آنها را با طیف گستردهای از برنامههای کاربردی تطبیق داد و آنها را به ابزارهای همهکارهای برای مشاغل تبدیل کرد.
نقش پیشآموزش و تنظیم دقیق
توسعه یک مدل پایه به طور معمول شامل دو مرحله کلیدی است: پیشآموزش و تنظیم دقیق.
- پیشآموزش: در این مرحله، مدل بر روی یک مجموعه داده عظیم، مانند کل اینترنت، آموزش داده میشود تا دانش عمومی و مهارتهای زبانی را یاد بگیرد. این فرآیند مدل را قادر میسازد تا متن را درک و تولید کند، زبانها را ترجمه کند و سایر وظایف اساسی را انجام دهد.
- تنظیم دقیق: در این مرحله، مدل از قبل آموزشدیده بر روی یک مجموعه داده کوچکتر و خاصتر مربوط به یک کار یا صنعت خاص، بیشتر آموزش داده میشود. این فرآیند به مدل اجازه میدهد تا دانش و مهارتهای خود را با نیازهای خاص برنامه تطبیق دهد.
به عنوان مثال، یک مدل زبانی از قبل آموزشدیده میتواند بر روی یک مجموعه داده از تعاملات خدمات مشتری تنظیم دقیق شود تا یک ربات چت ایجاد شود که بتواند به طور موثر به سؤالات مشتری پاسخ دهد.
هزینه آموزش و استنتاج
هزینههای مرتبط با مدلهای پایه را میتوان به دو دسته اصلی تقسیم کرد: هزینههای آموزش و هزینههای استنتاج.
- هزینههای آموزش: این هزینهها شامل منابع محاسباتی، دادهها و تخصص مورد نیاز برای آموزش مدل پایه است. آموزش یک مدل پایه بزرگ میتواند بسیار گران باشد و اغلب به میلیونها دلار سرمایهگذاری نیاز دارد.
- هزینههای استنتاج: این هزینهها شامل منابع محاسباتی مورد نیاز برای استفاده از مدل آموزشدیده برای پیشبینی یا تولید خروجی است. هزینههای استنتاج میتواند بسته به اندازه و پیچیدگی مدل، میزان دادههایی که پردازش میشود و زیرساختی که استفاده میشود، متفاوت باشد.
نوآوری دیپسیک در توانایی آن برای کاهش قابل توجه هزینههای آموزش مرتبط با مدلهای پایه نهفته است و آنها را برای طیف وسیعتری از مشاغل و سازمانها در دسترس قرار میدهد.
پرداختن به نگرانیهای مربوط به حریم خصوصی و اخلاقی
استفاده از مدلهای پایه سؤالات مهمی را در مورد حریم خصوصی دادهها و ملاحظات اخلاقی مطرح میکند. مدلهای پایه بر روی مجموعههای داده عظیمی آموزش داده میشوند که ممکن است حاوی اطلاعات حساس یا شخصی باشند. بسیار مهم است که اطمینان حاصل شود که این مدلها به روشی مسئولانه و اخلاقی، با احترام به حریم خصوصی کاربر و اجتناب از تعصب، استفاده میشوند.
برخی از استراتژیها برای پرداختن به این نگرانیها عبارتند از:
- ناشناسسازی دادهها: حذف یا پوشاندن اطلاعات شخصی از دادههای آموزشی برای محافظت از حریم خصوصی کاربر.
- تشخیص و کاهش تعصب: شناسایی و رسیدگی به تعصبها در دادههای آموزشی برای اطمینان از اینکه مدل کلیشههای مضر یا رویههای تبعیضآمیز را تداوم نمیبخشد.
- شفافیت و پاسخگویی: ارائه اطلاعات واضح در مورد نحوه عملکرد مدل و نحوه استفاده از آن، و ایجاد سازوکارهایی برای پاسخگویی در صورت بروز خطا یا عواقب ناخواسته.
از آنجایی که مدلهای پایه رایجتر میشوند، بسیار مهم است که به طور فعال به این نگرانیهای مربوط به حریم خصوصی و اخلاقی رسیدگی شود تا اطمینان حاصل شود که آنها به نفع جامعه استفاده میشوند.
آینده مدلهای پایه
مدلهای پایه به سرعت در حال تکامل هستند و تأثیر بالقوه آنها بر جامعه بسیار زیاد است. در آینده، میتوانیم انتظار داشته باشیم که:
- مدلهای قدرتمندتر و همهکارهتر: از آنجایی که محققان به توسعه معماریها و تکنیکهای آموزشی جدید ادامه میدهند، مدلهای پایه قدرتمندتر و همهکارهتر میشوند و قادر به انجام طیف گستردهتری از وظایف با دقت بیشتر هستند.
- افزایش دسترسی: از آنجایی که هزینههای آموزش کاهش مییابد و پلتفرمهای هوش مصنوعی مبتنی بر ابر رایجتر میشوند، مدلهای پایه برای مشاغل در هر اندازه در دسترستر میشوند.
- برنامههای کاربردی و موارد استفاده جدید: مدلهای پایه همچنان در برنامههای کاربردی جدید و نوآورانه در صنایع مختلف، از مراقبتهای بهداشتی گرفته تا امور مالی تا آموزش، استفاده میشوند.
ظهور مدلهای پایه نشاندهنده یک تغییر پارادایم در زمینه هوش مصنوعی است. با درک قابلیتها، هزینهها و ملاحظات اخلاقی آنها، میتوانیم از قدرت آنها برای ایجاد آیندهای بهتر استفاده کنیم.
سهم دیپسیک در دموکراتیک کردن هوش مصنوعی
دستاورد دیپسیک در کاهش قابل توجه هزینه آموزش مدلهای پایه، نقطه عطفی در دموکراتیک کردن هوش مصنوعی است. دیپسیک با کاهش موانع ورود، طیف وسیعتری از سازمانها و افراد را قادر میسازد تا در انقلاب هوش مصنوعی شرکت کنند.
تأثیر بر مشاغل کوچکتر
مشاغل کوچکتر اغلب فاقد منابع و تخصص برای توسعه و استقرار مدلهای هوش مصنوعی خود هستند. مدلهای پایه مقرون به صرفه دیپسیک، این مشاغل را قادر میسازد تا به فناوری پیشرفته هوش مصنوعی دسترسی پیدا کنند که قبلاً دور از دسترس بود. این میتواند زمین بازی را هموار کند و به مشاغل کوچکتر اجازه دهد تا به طور موثرتری با شرکتهای بزرگتر و تثبیتشده رقابت کنند.
به عنوان مثال، یک تجارت کوچک تجارت الکترونیک میتواند از مدلهای دیپسیک برای شخصیسازی توصیههای محصول برای مشتریان خود، بهبود خدمات مشتری یا خودکارسازی کمپینهای بازاریابی خود استفاده کند.
توانمندسازی توسعهدهندگان انفرادی
مدلهای دیپسیک همچنین توسعهدهندگان و محققان انفرادی را قادر میسازد تا برنامههای کاربردی و نوآوریهای جدید هوش مصنوعی را کشف کنند. توسعهدهندگان با دسترسی به مدلهای پایه مقرون به صرفه، میتوانند ایدههای مختلف را آزمایش کنند، ابزارهای جدید مبتنی بر هوش مصنوعی را توسعه دهند و به پیشرفت فناوری هوش مصنوعی کمک کنند.
این میتواند منجر به افزایش نوآوری شود، زیرا افراد بیشتری فرصت شرکت در توسعه هوش مصنوعی را دارند.
پتانسیل همکاری متنباز
رویکرد متنباز دیپسیک بیشتر باعث ترویج همکاری و نوآوری در جامعه هوش مصنوعی میشود. دیپسیک با در دسترس قرار دادن مدلهای خود برای عموم، توسعهدهندگان را تشویق میکند تا در بهبود آنها مشارکت کنند، اشکالات را شناسایی و رفع کنند و ویژگیهای جدیدی را توسعه دهند.
این رویکرد مشارکتی میتواند توسعه فناوری هوش مصنوعی را تسریع کند و اطمینان حاصل کند که از آن به نفع همه استفاده میشود.
تسریع پذیرش هوش مصنوعی
دیپسیک با کاهش هزینه هوش مصنوعی، پذیرش هوش مصنوعی را در صنایع مختلف تسریع میکند. از آنجایی که هوش مصنوعی مقرون به صرفهتر و در دسترستر میشود، مشاغل بیشتری میتوانند آن را در عملیات خود ادغام کنند و منجر به افزایش بهرهوری، کارایی و نوآوری شود.
این میتواند تأثیر عمیقی بر اقتصاد جهانی داشته باشد و رشد را هدایت کند و فرصتهای جدیدی ایجاد کند.
یک اکوسیستم هوش مصنوعی فراگیرتر
تلاشهای دیپسیک برای دموکراتیک کردن هوش مصنوعی به ایجاد یک اکوسیستم هوش مصنوعی فراگیرتر کمک میکند، جایی که افراد بیشتری فرصت شرکت در توسعه و استفاده از هوش مصنوعی را دارند. این میتواند به اطمینان از این کمک کند که هوش مصنوعی به گونهای استفاده میشود که به نفع همه اعضای جامعه باشد، نه فقط تعداد معدودی.
دیپسیک با توانمندسازی مشاغل کوچکتر، توسعهدهندگان انفرادی و محققان، در حال پرورش یک چشمانداز هوش مصنوعی متنوعتر و نوآورانهتر است.