دام اثبات مفهوم
ایوان ژانگ، یکی از بنیانگذاران Cohere، یک شرکت پیشرو در زمینه مدل های زبانی بزرگ (LLM)، نسبت به سرخوردگی شرکت هایی که سرمایه گذاری زیادی در پروژه های آزمایشی هوش مصنوعی کرده اند اما نتیجه مثبتی ندیده اند، هشدار می دهد. تعداد زیادی از مشتریان Cohere، با وجود ساخت برنامه های اولیه، برای انتقال آنها به مرحله تولید به دلیل مسائلی از قبیل هزینه، نظارت، امنیت داده و حریم خصوصی، تلاش کرده اند. این احساس، نشان دهنده یک روند گسترده تر است که در آن وعده هوش مصنوعی اغلب با واقعیت های عملی اجرا در تضاد است.
او به مسائل مربوط به هزینه، انطباق با مقررات، حفاظت از داده ها و پروتکل های حریم خصوصی اشاره کرد که Cohere امیدوار است با پلتفرم فضای کاری جدید خود، North، آنها را حل کند.
ضرورت بازگشت سرمایه
در مصاحبه ای، ژانگ تأکید کرد که مرحله بعدی پذیرش هوش مصنوعی باید با بازگشت سرمایه قابل اثبات هدایت شود. شرکت ها باید توجیه مالی روشنی برای سرمایه گذاری های هوش مصنوعی خود ببینند و اطمینان حاصل کنند که مزایا بیشتر از هزینه ها است. او هشدار داد که هزینه عملکرد برخی از سیستم های هوش مصنوعی آنقدر زیاد است که هرگونه صرفه جویی بالقوه در هزینه ها را از طریق خودکارسازی وظایف خنثی می کند.
او گفت: "گاهی اوقات سیستم هایی که در نهایت می سازند، هزینه خود مدل بیشتر از انسان هایی است که در واقع آن را اجرا می کنند."
برای غلبه بر بی اعتمادی ناشی از شرکت های هوش مصنوعی که پروژه هایی را بر عهده می گیرند که هرگز به نتیجه نمی رسند، باید به این سوال اساسی پاسخ داد که آیا واقعاً با پیاده سازی هوش مصنوعی پیشرفتی حاصل می شود یا خیر.
تقویت هوش مصنوعی در مقابل بهره وری
ژانگ همچنین به مواردی اشاره کرد که شرکت ها سعی کرده اند نیروی کار موجود را با هوش مصنوعی تقویت کنند اما هیچ بهبودی در بهره وری مشاهده نکرده اند. در برخی موارد، کارمندان به سادگی حجم کار خود را کاهش داده اند بدون اینکه خروجی را افزایش دهند و در واقع مزایای هوش مصنوعی را خنثی کرده اند. این موضوع اهمیت بررسی دقیق نحوه ادغام هوش مصنوعی در گردش کارهای موجود و اطمینان از اینکه منجر به افزایش واقعی کارایی می شود را نشان می دهد.
غلبه بر موانع اولیه
ژانگ پیش بینی می کند که استارتاپ های هوش مصنوعی اکنون وظیفه خواهند داشت شرکت هایی را که از پروژه هایی که به نتیجه نرسیده اند، “سوخته اند” را دوباره به دست آورند. او معتقد است که شرکت های هوش مصنوعی برای بازسازی اعتماد، باید ارزش ملموس راه حل های خود را نشان دهند و بر ارائه نتایج قابل اندازه گیری تمرکز کنند.
پژواک ها از جامعه تحقیقاتی
مشاهدات ژانگ توسط تحقیقات سازمان هایی مانند دفتر ملی تحقیقات اقتصادی پشتیبانی می شود که پس از بررسی 7000 محل کار با استفاده از چت بات های هوش مصنوعی، "هیچ تأثیر قابل توجهی بر درآمد یا ساعات ثبت شده در هیچ شغلی" نیافت. به طور مشابه، یک مطالعه گروه مشاوره بوستون نشان داد که تنها یک چهارم مدیران مورد بررسی، ارزش قابل توجهی از هوش مصنوعی مشاهده کرده اند، که نشان می دهد شرکت ها اغلب سرمایه گذاری های خود را به طور زیادی در بین چندین پروژه آزمایشی پخش می کنند.
اولویت بندی مشکلات تجاری بر راه حل های پر زرق و برق
توصیه ژانگ به شرکتهایی که مدلهای زبانی بزرگ (LLM) را در نظر میگیرند این است که به جای ساختن راهحلهای پیچیده بدون موارد استفاده روشن، بر حل مشکلات تجاری خاص تمرکز کنند. او هشدار داد که نباید “در ساختن چیزی و جستجوی یک مشکل گم شد” و بر اهمیت همسویی سرمایه گذاری های هوش مصنوعی با اهداف استراتژیک تجاری تاکید کرد.
هوش مصنوعی به عنوان ابزاری در جعبه ابزار
ژانگ استدلال می کند که هوش مصنوعی باید فقط به عنوان یک ابزار در جعبه ابزار برای حل مشکلات تجاری و ایجاد ارزش برای مشتریان دیده شود. او نسبت به تبلیغات بیش از حد پتانسیل این فناوری برای حل تمام مشکلات جهان هشدار داد و تأکید کرد که آن در صورت استفاده استراتژیک و در کنار سایر راه حل ها، مؤثرتر است.
چالش توهم
در حالی که هوش مصنوعی پیشرفت های چشمگیری داشته است، چالش هایی به ویژه در زمینه “توهم” باقی مانده است، جایی که مدل های زبانی بزرگ (LLM)، اطلاعات نادرست یا ساختگی تولید می کنند. علیرغم پیشرفت در این زمینه، نرخ توهم LLM به طرز سرسختانه ای بالا باقی مانده است و حتی جدیدترین مدل ها از شرکت های پیشرو نیز خطا تولید می کنند. این مسئله بر اهمیت شفافیت و ارائه بینش به کاربران در مورد چگونگی رسیدن مدل های هوش مصنوعی به نتایج خود تأکید می کند.
این بنیانگذار به متخصصان متعددی اذعان کرد که توهم همچنان یک مشکل در هوش مصنوعی مولد است. او اظهار داشت که این شرکت سعی کرده با شفاف بودن، از جمله نشان دادن "تفکر خام" مدل های زبانی بزرگ (LLM) خود به کاربران و ابزارهایی که سیستم های آن استفاده می کنند، همراه با نحوه و استنادات به پاسخ های مشتق شده، کمک کند.
چشم انداز رقابتی
Cohere با رقابت شدیدی از سوی رقبای دارای بودجه بهتر در فضای هوش مصنوعی روبرو است. با این حال، ژانگ معتقد است که بزرگتر بودن همیشه برای ساخت مدل های هوش مصنوعی مقرون به صرفه و کم مصرف بهتر نیست. او استدلال کرد که یک مدل “فقط به اندازه داده ها و سیستم هایی که می تواند به آنها دسترسی داشته باشد خوب است” و بر اهمیت ساخت راه حل هایی که می توانند به طور کامل در محیط مشتریان اجرا شوند تأکید کرد. ژانگ از “رشد شدید” Cohere تمجید کرد و گفت که “طبیعت نسبتاً نوپا” فضا، فضای زیادی را برای گسترش شرکت باقی می گذارد.
رشد درآمد و چالش ها
رشد Cohere اخیراً موضوع تمرکز رسانه های فناوری بوده است. Cohere در این ماه به 100 میلیون دلار آمریکا (138 میلیون دلار کانادا) درآمد سالانه دست یافت، پس از اینکه فروش خود را از ابتدای سال 2025 بیش از دو برابر کرد و مدیرعامل Aidan Gomez اخیراً به بلومبرگ گفت که این شرکت “فاصله زیادی” با سودآوری ندارد.
شکایت نقض حق چاپ
این استارت آپ هوش مصنوعی همچنین دارای چیزی است که یک کارشناس آن را یک دادخواست “تعیین کننده سوابق” نقض حق چاپ از شرکت های بزرگ رسانه ای خوانده است. گروهی از سازمان های رسانه ای از جمله Toronto Star، Condé Nast و Vox مدعی شده اند که Cohere محتوای رسانه ای را بدون رضایت حذف کرده و از آن برای آموزش مدل های هوش مصنوعی استفاده کرده است، بدون اجازه به محتوا در زمان واقعی دسترسی داشته و خروجی های ناقض تولید کرده است. Cohere تنها یکی از بسیاری از استارت آپ های هوش مصنوعی است که با دادخواست های مشابه روبرو هستند. Cohere این ادعاها را رد کرده و استدلال می کند که ناشران شاکی تمام تلاش خود را کرده اند تا یک پرونده را “تولید” کنند و با این تصور که هیچ نقض حق چاپ عملی رخ داده است مخالف هستند.
ژانگ از ارائه اظهار نظر زیادی در این مورد خودداری کرد و BetaKit را به یک پست وبلاگی که جزئیات تفکرات Cohere را شرح می دهد، ارجاع داد. او گفت: "ما به آن اطمینان داریم."
بررسی عمیق تر چالش های پیاده سازی هوش مصنوعی
بسیاری از کسب و کارها در ابتدا با اشتیاق فراوان وارد ابتکارات هوش مصنوعی می شوند و بر این باورند که هوش مصنوعی به سرعت عملیات آنها را متحول می کند و کارایی هایی را ایجاد می کند که قبلاً شنیده نشده بود. اما بسیاری از آنها با چالش های اساسی مواجه می شوند که انتظارش را نداشتند. این مشکلات می توانند اشکال مختلفی داشته باشند، از پیچیدگی فنی گرفته تا مقاومت سازمانی. درک این چالش ها برای کسب و کارهایی که امیدوارند با موفقیت هوش مصنوعی را پیاده سازی کنند و بازگشت مثبتی از سرمایه گذاری های خود دریافت کنند، ضروری است.
پیچیدگی فنی و الزامات داده
یکی از اولین موانعی که کسب و کارها اغلب با آن مواجه می شوند، پیچیدگی فنی سیستم های هوش مصنوعی است. مدل های هوش مصنوعی، به ویژه مدل هایی که مبتنی بر یادگیری عمیق هستند، از نظر محاسباتی پرهزینه هستند و برای ایجاد، آموزش و استقرار به دانش تخصصی نیاز دارند. داده ها نیز مورد نیاز است. کیفیت و کمیت داده های آموزشی تأثیر قابل توجهی بر عملکرد مدل های هوش مصنوعی دارد. جمع آوری و آماده سازی مجموعه داده های بزرگ ممکن است یک فرآیند زمان بر و پر منابع باشد. پروژه های هوش مصنوعی ممکن است به دلیل کمبود داده های با کیفیت و برچسب دار، که منجر به مدل های نادرست یا متعصبانه می شود، مختل شوند.
علاوه بر این، تضمین قابلیت همکاری سیستم های هوش مصنوعی با زیرساخت های فناوری اطلاعات موجود، پیچیدگی بیشتری را معرفی می کند. پلتفرم ها و چارچوب های مختلف هوش مصنوعی ممکن است با سیستم های قدیمی سازگار نباشند و نیاز به تغییرات اساسی در گردش کارها و معماری های موجود داشته باشند. ادغام هوش مصنوعی در محیط های پیچیده سازمانی اغلب به تجربه قابل توجه و درک قوی از هر دو فناوری هوش مصنوعی و عملیات تجاری اساسی نیاز دارد.
موانع سازمانی و فرهنگی
علاوه بر موانع فنی، سازمان ها ممکن است با موانع سازمانی و فرهنگی قابل توجهی در برابر پذیرش هوش مصنوعی مواجه شوند. یکی از مسائل رایج، بی میلی کارگران به پذیرش تغییرات ناشی از هوش مصنوعی است. کارمندان ممکن است نگران جابجایی شغلی و همچنین نیاز به یادگیری استعدادهای جدید و سازگاری با روش های کاری جدید باشند. مقاومت از سوی کارگران ممکن است ابتکارات هوش مصنوعی را مختل کند و مانع از تحقق مزایای پیش بینی شده شود.
علاوه بر این، استقرار هوش مصنوعی مستلزم همکاری قابل توجهی بین بخش ها و تیم ها است. دانشمندان داده، متخصصان فناوری اطلاعات، تحلیلگران تجاری و کارشناسان موضوعی باید با هم همکاری کنند تا مشکلات را تعریف کنند، راه حل های هوش مصنوعی ایجاد کنند و آنها را در مرحله تولید مستقر کنند. سیلوها و عدم ارتباط ممکن است همکاری را خفه کند و مانع از ادغام موثر هوش مصنوعی در عملیات تجاری شود. غلبه بر این موانع سازمانی و فرهنگی مستلزم رهبری قوی، ارتباط موثر و تعهد به مدیریت تغییر است.
نگرانی های اخلاقی و نظارتی
با گسترش هوش مصنوعی، مسائل اخلاقی و نظارتی اهمیت فزاینده ای پیدا می کنند. سیستم های هوش مصنوعی این قابلیت را دارند که تعصبات را تداوم بخشند، قضاوت های ناعادلانه ای داشته باشند و حریم خصوصی افراد را نقض کنند. سازمان ها باید با تدوین دستورالعمل های اخلاقی قوی و رویه های نظارتی برای طراحی، توسعه و استقرار هوش مصنوعی، به این نگرانی ها رسیدگی کنند. شفافیت، پاسخگویی و انصاف اصول کلیدی برای هوش مصنوعی مسئولانه هستند.
حریم خصوصی داده ها یک مسئله مهم برای در نظر گرفتن است. قوانین حریم خصوصی داده ها باید هنگام ساخت سیستم های هوش مصنوعی دنبال شوند، همراه با محافظت برای محافظت از اطلاعات حساس در برابر دسترسی یا سوء استفاده ناخواسته. سازمان ها باید رضایت کاربر را برای جمع آوری و استفاده از داده ها دریافت کنند، و همچنین شفافیت در مورد نحوه تصمیم گیری مدل های هوش مصنوعی ارائه دهند. علاوه بر این، سازمان ها باید مکانیزم هایی برای نظارت و ممیزی سیستم های هوش مصنوعی برای کشف و کاهش هرگونه خطرات اخلاقی یا عواقب ناخواسته داشته باشند.
اندازه گیری و نشان دادن بازگشت سرمایه
در نهایت، موفقیت هر پروژه هوش مصنوعی به ظرفیت آن برای تولید یک بازگشت سرمایه (ROI) قابل کمی سازی بستگی دارد. با این حال، تعیین بازگشت سرمایه پروژه های هوش مصنوعی ممکن است دشوار باشد، به ویژه هنگامی که مزایا ناملموس یا بلند مدت باشند. سازمان ها باید اهداف و شاخص های روشنی را برای ابتکارات هوش مصنوعی خود تعیین کنند، و همچنین به طور منظم پیشرفت را ردیابی کرده و نتایج را اندازه گیری کنند. این امر مستلزم درککامل از ارزش تجاری است که انتظار می رود هوش مصنوعی ارائه دهد و همخ