एमसीपी क्रांति: एआई परिदृश्य का पुनर्गठन और उद्यम चिंताओं को कम करना
ChatGPT के आगमन के बाद से, बड़े भाषा मॉडल (LLMs) में प्रगति की अथक खोज AI परिदृश्य की एक परिभाषित विशेषता रही है। पैरामीटर आकार पर प्रारंभिक ध्यान धीरे-धीरे व्यावहारिक अनुप्रयोगों की ओर स्थानांतरित हो गया है, फिर भी AI की शक्ति का दोहन करने वाले व्यवसायों के लिए महत्वपूर्ण चुनौतियाँ बनी हुई हैं। कंप्यूटिंग शक्ति से जुड़ी उच्च लागत और AI एप्लिकेशन पारिस्थितिकी तंत्र की खंडित प्रकृति महत्वपूर्ण दर्द बिंदु बनी हुई है। कंपनियों को अक्सर पता चलता है कि AI में उनके पर्याप्त निवेश अपेक्षित रिटर्न में नहीं बदलते हैं, जिससे एक स्थायी ‘ROI दुविधा’ बनी रहती है।
एमसीपी और ए2ए का उदय: एक प्रतिमान बदलाव
2025 में मॉडल संदर्भ प्रोटोकॉल (MCP) और एजेंट2एजेंट (A2A) प्रोटोकॉल का उदय AI एप्लिकेशन विकास के विकास में एक महत्वपूर्ण क्षण है। MCP का उद्देश्य डेटा साइलो को तोड़ने के लिए इंटरफेस को मानकीकृत करना है, जिससे LLMs बाहरी संसाधनों को कुशलता से एक्सेस कर सकें और सिस्टम और प्लेटफॉर्म पर निर्बाध डेटा प्रवाह की सुविधा मिल सके। A2A आगे एजेंटों के बीच निर्बाध बातचीत को बढ़ावा देता है, जिससे एकजुट, एकीकृत सिस्टम बनाने के लिए सहयोग और संचार को बढ़ावा मिलता है।
MCP से A2A में बदलाव AI एप्लिकेशन पारिस्थितिकी तंत्र में एक प्रमुख चालक के रूप में ‘खुलेपन’ पर बढ़ते जोर को रेखांकित करता है। इस खुलेपन में तकनीकी अंतर-क्षमता और सहयोगी भावना दोनों शामिल हैं। एक व्यापक दृष्टिकोण से, यह परिवर्तन प्रौद्योगिकी विकास में एक प्राकृतिक प्रगति को दर्शाता है: प्रारंभिक उत्साह से व्यावहारिक कार्यान्वयन में संक्रमण, और पृथक नवाचार से सहयोगी पारिस्थितिकी तंत्र विकास में।
ऐतिहासिक रूप से, LLMs के मूल्य को असमान रूप से पैरामीटर पैमाने और स्टैंडअलोन क्षमताओं के लिए जिम्मेदार ठहराया गया है। आज, MCP और A2A AI एप्लिकेशन के बीच अंतर्संबंध की महत्वपूर्ण समस्या को संबोधित करते हैं और LLM पारिस्थितिकी तंत्र की प्रतिस्पर्धी गतिशीलता को नया आकार देते हैं। AI एप्लिकेशन विकास ‘अकेले भेड़िया’ दृष्टिकोण से अंतर-संबंध के मॉडल में विकसित हो रहा है। इसके लिए CTOs के लिए AI मूल्य के पुनर्मूल्यांकन की आवश्यकता है, जिससे ध्यान केवल मॉडल आकार और ‘ऑल-इन’ रणनीतियों को आगे बढ़ाने से हटकर विविध AI क्षमताओं को जोड़ने वाले प्लेटफार्मों का लाभ उठाने पर आ जाए। लक्ष्य AI को मौजूदा व्यावसायिक प्रक्रियाओं और उत्पादन प्रणालियों में व्यवस्थित रूप से एम्बेड करना, सहयोग और मानकीकरण के माध्यम से समग्र दक्षता में सुधार करना, न्यूनतम कम्प्यूटेशनल संसाधनों के साथ महत्वपूर्ण समस्याओं को हल करना और ‘ROI दुविधा’ को दूर करना है।
बर्बाद कंप्यूट और गलत संरेखित परिदृश्यों का संकट
उच्च-निवेश, कम-आउटपुट बाधा को दूर करने में असमर्थता ने लंबे समय से LLMs के कार्यान्वयन को त्रस्त किया है। यह घटना AI विकास में गहरी अंतर्विरोधों को दर्शाती है। सबसे पहले, कंप्यूटिंग शक्ति में महत्वपूर्ण बर्बादी होती है। डेटा इंगित करता है कि उद्यम-स्तरीय सामान्य-उद्देश्य कंप्यूटिंग केंद्र केवल 10-15% उपयोग पर काम करते हैं, जिससे बड़ी मात्रा में कंप्यूटिंग संसाधन निष्क्रिय हो जाते हैं। दूसरा, परिदृश्यों का गलत संरेखण है जहाँ मॉडल प्रदर्शन व्यावसायिक परिदृश्यों की वास्तविक आवश्यकताओं को पूरा नहीं करता है।
एक आम मुद्दा हल्के कार्यों के लिए बड़े मॉडल का उपयोग करने का ‘अतिरेक’ है। कुछ व्यवसाय सरल अनुप्रयोगों के लिए सामान्य-उद्देश्य LLMs पर अत्यधिक निर्भर करते हैं। इसके अतिरिक्त, व्यावसायिक परिदृश्यों की अनूठी प्रकृति दुविधाएँ पैदा करती है। बड़े मॉडल का उपयोग करने से उच्च कम्प्यूटेशनल लागत और लंबे समय तक अनुमान लगाने का समय लगता है। छोटे मॉडल का चयन करने से व्यावसायिक आवश्यकताएं पूरी नहीं हो सकती हैं। यह संघर्ष विशेष रूप से व्यावसायिक परिदृश्यों में स्पष्ट है जिसके लिए विशेष डोमेन ज्ञान की आवश्यकता होती है।
भर्ती उद्योग में प्रतिभा-नौकरी मिलान परिदृश्य पर विचार करें। कंपनियों को रिज्यूम और नौकरी विवरण के बीच जटिल संबंधों को समझने के लिए गहरी तर्क क्षमताओं वाले मॉडल की आवश्यकता होती है, जबकि त्वरित प्रतिक्रिया समय की भी मांग होती है। सामान्य-उद्देश्य LLMs के लंबे समय तक अनुमान लगाने का समय उपयोगकर्ता अनुभव को काफी कम कर सकता है, खासकर उच्च-समवर्ती उपयोगकर्ता मांगों के तहत।
प्रदर्शन और दक्षता को संतुलित करने के लिए, मॉडल डिस्टिलेशन ने हाल के वर्षों में कर्षण प्राप्त किया है। इस वर्ष की शुरुआत में DeepSeek-R1 के लॉन्च ने इस तकनीक के मूल्य को और उजागर किया है। जटिल तर्क कार्यों को संभालने में, मॉडल डिस्टिलेशन DeepSeek-R1 के ‘चेन ऑफ थॉट’ पैटर्न को कैप्चर करता है, जिससे हल्के छात्र मॉडल को केवल आउटपुट परिणामों की नकल करने के बजाय अपनी तर्क क्षमताओं को विरासत में लेने की अनुमति मिलती है।
उदाहरण के लिए, Zhaopin, एक प्रमुख भर्ती मंच, ने प्रतिभा-नौकरी मिलान कार्यों में उपयोग किए गए विचार की श्रृंखला और निर्णय लेने के तर्क को डिस्टिल करने के लिए शिक्षक मॉडल के रूप में DeepSeek-R1 (600+ बिलियन पैरामीटर) को नियोजित किया। उन्होंने शिक्षक मॉडल को डिस्टिल करने और इसे ERNIE Speed मॉडल (10+ बिलियन पैरामीटर), छात्र मॉडल में स्थानांतरित करने के लिए Baidu AI Cloud Qianfan मॉडल विकास प्लेटफॉर्म का उपयोग किया। इस दृष्टिकोण ने शिक्षक मॉडल के समान प्रदर्शन प्राप्त किया (DeepSeek-R1 ने तर्क लिंक परिणामों में 85% सटीकता प्राप्त की, जबकि छात्र मॉडल ने 81% से अधिक प्राप्त किया), अनुमान गति को स्वीकार्य स्तर तक बढ़ाया, और मूल के 30% तक लागत कम कर दी, जबकि पूर्ण विकसित DeepSeek-R1 की तुलना में 1x तेज गति प्राप्त की।
वर्तमान में, व्यवसाय आमतौर पर मॉडल डिस्टिलेशन के लिए दो दृष्टिकोण अपनाते हैं: बुनियादी ढांचे और GPU से लेकर प्रशिक्षण फ्रेमवर्क तक एक पूर्ण तकनीकी प्रणाली का निर्माण, या Qianfan मॉडल विकास प्लेटफॉर्म या अन्य विक्रेताओं जैसे प्लेटफ़ॉर्म-आधारित समाधानों का उपयोग करना। Zhaopin में एक AI एप्लिकेशन विशेषज्ञ याओ सिजिया ने कहा कि हालाँकि Zhaopin का अपना प्रशिक्षण ढांचा है, लेकिन उन्होंने तीन मुख्य विचारों के कारण मॉडल डिस्टिलेशन के लिए Qianfan मॉडल विकास प्लेटफॉर्म को चुना:
- व्यापक समर्थन: Qianfan मॉडल विकास प्लेटफॉर्म मॉडल डिस्टिलेशन के लिए उद्योग-अग्रणी समर्थन प्रदान करता है, डिस्टिलेशन परिदृश्यों के आसपास पूरी तकनीकी श्रृंखला को गहराई से अनुकूलित करता है।
- लागत नियंत्रण: स्वतंत्र रूप से हार्डवेयर खरीदने और बनाए रखने की तुलना में, Qianfan मॉडल विकास प्लेटफॉर्म लागत नियंत्रण और अधिक लचीला संसाधन आवंटन में महत्वपूर्ण लाभ प्रदान करता है।
- व्यावसायिक परिदृश्यों की गहरी समझ: Baidu की पेशेवर समाधान टीम भर्ती डोमेन में ‘सटीक मिलान’ और ‘उच्च-समवर्ती प्रतिक्रिया’ जैसी मुख्य आवश्यकताओं को गहराई से समझती है और समाधानों का पता लगाने के लिए कंपनियों के साथ सहयोग करती है।
याओ सिजिया ने कहा कि Zhaopin AI+ भर्ती परिदृश्यों का अग्रणी होना जारी रखेगा, मॉडल प्रदर्शन को और बेहतर बनाने के लिए Qianfan की रीइन्फोर्समेंट लर्निंग फाइन-ट्यूनिंग (RFT) तकनीक का उपयोग करेगा। वे यह पता लगाने की योजना बना रहे हैं कि क्या शिक्षक मॉडल को और बढ़ाया जा सकता है और क्या बेहतर इनाम तंत्र पहले से ही डिस्टिल्ड छात्र मॉडल को सटीकता में सुधार करने के लिए अनुकूलित कर सकते हैं। Qianfan चीन में RFT और GRPO जैसे अग्रणी रीइन्फोर्समेंट लर्निंग विधियों का उत्पादन करने वाला पहला प्लेटफॉर्म है। इन अत्याधुनिक रीइन्फोर्समेंट लर्निंग विधियों को लागू करने योग्य समाधानों में बदलकर, Qianfan Zhaopin जैसी कंपनियों को मॉडल प्रदर्शन को अनुकूलित करने के लिए अधिक संभावनाएं प्रदान करता है।
हालाँकि, मॉडल डिस्टिलेशन केवल एक मॉडल के प्रदर्शन को अनुकूलित करता है। जटिल व्यावसायिक परिदृश्यों में, परिदृश्यों के साथ विविध AI क्षमताओं का सटीक मिलान करना आवश्यक है।
एक स्मार्टफोन पर विचार करें। कॉल असिस्टेंट जैसे इरादे की पहचान के परिदृश्यों में, उपयोगकर्ता समस्याओं की त्वरित पहचान करने के लिए आमतौर पर हल्के मॉडल का उपयोग किया जाता है। मौसम प्रश्न और समाचार पुनर्प्राप्ति जैसे सामान्य ज्ञान Q&A परिदृश्यों के लिए, आमतौर पर सटीक और जानकारीपूर्ण उत्तर जल्दी से प्रदान करने के लिए मध्यम आकार के मॉडल का उपयोग किया जाता है। डेटा विश्लेषण और तार्किक तर्क परिदृश्यों में जिनके लिए गहरी सोच की आवश्यकता होती है, आमतौर पर बड़े मॉडल का उपयोग किया जाता है।
इसका मतलब है कि एक स्मार्टफोन को विभिन्न उपयोगकर्ता मांग परिदृश्यों में कई LLMs को लचीले ढंग से कॉल करने की आवश्यकता है। फोन निर्माताओं के लिए, यह उच्च मॉडल चयन लागत और विभिन्न मॉडल इंटरफ़ेस प्रोटोकॉल के कारण जटिल कॉलिंग प्रक्रियाओं जैसी चुनौतियाँ प्रस्तुत करता है।
इन उद्योग दर्द बिंदुओं को संबोधित करने के लिए, Qianfan मॉडल विकास प्लेटफॉर्म ने मॉडल रूटिंग इंटरफेस का उत्पादन किया। मूल फ़ैक्टरी मॉडल का सीधे उपयोग करने की तुलना में, यह कस्टम विकास और आउट-ऑफ़-द-बॉक्स API कॉलिंग उत्पाद क्षमताएँ प्रदान करता है, जिससे कंपनियों को इंजीनियरिंग कार्यभार और विकास समय को बचाने में मदद मिलती है, जबकि लागत कम होती है। इसके अलावा, Qianfan मॉडल विकास प्लेटफॉर्म बड़े पैमाने पर उपयोगकर्ताओं के लिए लचीली कॉलिंग का समर्थन करता है, उच्च-आवृत्ति और उच्च-समवर्ती कॉलिंग मांगों के तहत भी गति और स्थिरता सुनिश्चित करता है।
मॉडल स्तर पर, मॉडल डिस्टिलेशन और मल्टी-मॉडल कॉलिंग जैसी तकनीकी क्षमताएं अधिक से अधिक कंपनियों को संसाधन आवंटन को अनुकूलित करने, AI क्षमताओं को व्यावसायिक परिदृश्यों से सटीक रूप से मिलान करने में मदद कर रही हैं, जबकि लागत कम हो रही है। एप्लिकेशन स्तर पर, MCP और A2A, जिन्होंने महत्वपूर्ण उद्योग ध्यान आकर्षित किया है, AI परीक्षण और त्रुटि लागत को और कम करते हैं, कंपनियों को एप्लिकेशन सहयोग प्रतिमानों को अनुकूलित करने में मदद करते हैं, और पारंपरिक एजेंट विकास में अक्षम ‘पहिया का पुन: आविष्कार’ मॉडल को बदलते हैं।
मॉडल से एप्लिकेशन तक एक ‘संयोजन पंच’ LLMs को ‘ROI दुविधा’ को दूर करने में मदद करने का सही उत्तर है।
बंद से खुला: AI प्रयोग की बाधा को कम करना
2023 से, AI एप्लिकेशन कार्यान्वयन के लिए प्रमुख शब्द धीरे-धीरे एजेंट में बदल गया है। 2024 तक, लगभग सभी कंपनियां एजेंट एप्लिकेशन और विकास पर चर्चा कर रही हैं। हालाँकि, उस समय एजेंटों में वास्तविक योजना क्षमताओं का अभाव था और वे मुख्य रूप से वर्कफ़्लो परिप्रेक्ष्य पर आधारित थे, विशेषज्ञ-संचालित नियमों के माध्यम से घटकों को सिलाई या प्रक्रियाबद्ध करके LLMs को बुनियादी एप्लिकेशन से जोड़ते थे।
हाल ही में MCP और A2A प्रोटोकॉल के उदय के साथ, 2025 सही ‘एजेंट वर्ष शून्य’ बन गया है। विशेष रूप से, AI क्षेत्र पर MCP का प्रभाव इंटरनेट पर TCP/IP प्रोटोकॉल के प्रभाव के बराबर है।
Biyao Technology के CEO Zhou Ze’an ने InfoQ के साथ एक साक्षात्कार में कहा कि AI क्षेत्र के लिए MCP का मूल मूल्य तीन आयामों में परिलक्षित होता है:
- LLM टूल कॉलिंग का मानकीकरण: अतीत में, प्रत्येक कंपनी का अपना फ़ंक्शन कॉल कार्यान्वयन था, जिसमें उनके बीच महत्वपूर्ण अंतर थे। MCP एक एकीकृत पहुंच मानक स्थापित करता है, जिससे क्लाइंट और सर्वर के बीच एप्लिकेशन शेड्यूलिंग योजनाओं का वास्तविक मानकीकरण सक्षम होता है। इसके अतिरिक्त, MCP न केवल फ़ंक्शन कॉल का समर्थन करने वाले LLMs के बीच, बल्कि इस सुविधा के बिना LLMs के साथ भी बातचीत को सक्षम बनाता है।
- उपकरण सहयोग चुनौतियों का समाधान: MCP प्रोटोकॉल का एकीकृत मानक एजेंट सेवाओं के निर्माण को अधिक विविध बनाता है। डेवलपर्स को न केवल अपने स्वयं के एजेंटों और MCP सेवाओं पर विचार करने की आवश्यकता है, बल्कि अधिक शक्तिशाली एजेंट कार्यों को प्राप्त करने के लिए बाहरी क्षमताओं को कैसे एकीकृत किया जाए, इस पर भी विचार करने की आवश्यकता है।
- LLMs के माध्यम से पूरे संदर्भ को नियंत्रित करना, जिसके परिणामस्वरूप अधिक उपयोगकर्ता के अनुकूल बातचीत होती है: प्रक्रियाओं का निर्माण करते समय, यह उन जटिल कार्यों को हल करने के लिए डेटा स्रोतों की एक विस्तृत श्रृंखला का उपयोग कर सकता है जो पहले असंभव थे।
‘सामान्य तौर पर, MCP प्रोटोकॉल कंपनियों के लिए AI तकनीक अपनाने की बाधा को काफी कम कर देता है। अतीत में, एजेंटों तक पहुंचने की तकनीकी एकीकरण प्रक्रिया जटिल थी। अब, कंपनियों को जटिल तकनीकी कार्यान्वयन विवरणों को गहराई से समझने की आवश्यकता नहीं है, बल्कि केवल अपनी व्यावसायिक आवश्यकताओं को स्पष्ट करने की आवश्यकता है,’ Zhou Ze’an ने कहा। Biyao Technology ने अनुबंधों, रिज्यूम और PPT सहित MCP प्रोटोकॉल के माध्यम से अपने स्व-विकसित मानव संसाधन उद्योग वर्टिकल LLM ‘Bole’ की दस्तावेज़ प्रसंस्करण क्षमताओं को पूरी तरह से खोल दिया है, और Qianfan एप्लिकेशन विकास प्लेटफ़ॉर्म पर MCP घटकों को लॉन्च करने वाले पहले उद्यम डेवलपर्स में से एक बन गया है। वर्तमान में, कोई भी उद्यम या व्यक्तिगत डेवलपर Qianfan प्लेटफ़ॉर्म पर सीधे अपनी पेशेवर क्षमताओं को कॉल कर सकता है।
‘Baidu डेवलपर्स को सक्रिय और व्यापक रूप से MCP को अपनाने में मदद करेगा।’ 25 अप्रैल को आयोजित Create2025 Baidu AI डेवलपर सम्मेलन में, Qianfan प्लेटफ़ॉर्म ने आधिकारिक तौर पर उद्यम-स्तरीय MCP सेवाओं को लॉन्च किया। Baidu के संस्थापक Li Yanhong ने Qianfan प्लेटफ़ॉर्म द्वारा MCP को अपनाने के मामले का प्रदर्शन किया, जिससे डेवलपर्स को एजेंटों का निर्माण करते समय Baidu AI खोज, मानचित्र और Wenku सहित 1000 MCP सर्वरों को लचीले ढंग से एक्सेस करने की अनुमति मिली। इसके अतिरिक्त, Qianfan ने MCP सर्वर बनाने के लिए एक कम-कोड टूल लॉन्च किया, जिससे डेवलपर्स को Qianfan पर अपने स्वयं के MCP सर्वर को आसानी से विकसित करने और उन्हें एक क्लिक के साथ Qianfan MCP Square पर प्रकाशित करने की अनुमति मिली। इन MCP सर्वरों को Baidu खोज द्वारा तुरंत अनुक्रमित किया जाएगा, जिससे उन्हें अधिक डेवलपर्स द्वारा खोजा और उपयोग किया जा सकेगा।
वास्तव में, Qianfan MCP प्रोटोकॉल के उदय से पहले AI कार्यान्वयन की अंतिम मील की समस्या को लगातार हल कर रहा है, जिससे कंपनियों को AI तकनीक के लाभों को कुशलतापूर्वक और कम बाधाओं के साथ प्राप्त करने में मदद मिलती है और कई उद्योगों के लिए परिपक्व समाधान प्रदान किए जाते हैं।
उदाहरण के लिए, स्मार्ट होम उद्योग में, कंपनियों को आमतौर पर एक सामान्य समस्या का सामना करना पड़ता है: विशाल उत्पाद मॉडल के लिए सटीक बुद्धिमान सेवाएं कैसे प्रदान करें? LLMs के त्वरित कार्यान्वयन के साथ, अधिक से अधिक कंपनियां उपयोगकर्ताओं को सटीक और व्यक्तिगत उत्तर जल्दी से प्रदान करने के लिए एजेंटों का उपयोग कर रही हैं। हालाँकि, यह एक नई चुनौती भी लाता है: कई एजेंटों को कैसे विकसित और प्रबंधित किया जाए? स्मार्ट होम ब्रांडों में आमतौर पर कई अलग-अलग उत्पाद श्रेणियां और मॉडल होते हैं। प्रत्येक उत्पाद के लिए अलग-अलग एजेंट का निर्माण करने से न केवल उच्च विकास लागत होगी, बल्कि बाद के चरणों में महत्वपूर्ण प्रबंधन और रखरखाव लागत भी होगी।
उदाहरण के लिए, एक प्रमुख स्मार्ट होम ब्रांड ने फ़ाइल नामों को स्वतंत्र स्लाइस के रूप में मानने और प्रत्येक बारीक स्लाइस में फ़ाइल नाम स्लाइस जानकारी को एम्बेड करने के लिए Baidu AI Cloud Qianfan एप्लिकेशन विकास प्लेटफ़ॉर्म का उपयोग किया। प्रत्येक उत्पाद के लिए अलग-अलग एजेंट बनाने के बजाय, उन्हें केवल संबंधित ज्ञान आधार को सॉर्ट करने और उत्पाद मॉडल के नाम को परिभाषित करने की आवश्यकता थी। फिर, वे उत्पाद मॉडल और ज्ञान बिंदुओं के सटीक मिलान को प्राप्त करने के लिए Qianfan प्लेटफ़ॉर्म की RAG फ्रेमवर्क स्वचालित पार्सिंग रणनीति का उपयोग कर सकते हैं।
Qianfan एप्लिकेशन विकास प्लेटफ़ॉर्म ब्रांड को एक सतत विकसित होने वाला बुद्धिमान केंद्र बनाने के लिए संचालन उपकरणों का एक सेट भी प्रदान करता है। डेटा बैकफ़्लो फ़ंक्शन के माध्यम से, सभी उपयोगकर्ता इंटरैक्शन रिकॉर्ड को अनुकूलन सामग्री में बदल दिया जाता है। संचालन कर्मी वास्तविक समय में उच्च-आवृत्ति समस्याओं को देख सकते हैं और तुरंत अज्ञात ज्ञान बिंदुओं पर हस्तक्षेप कर सकते हैं, जिससे एक ‘संचालन - प्रतिक्रिया - अनुकूलन’ बंद लूप बनता है। इसके अतिरिक्त, Qianfan एप्लिकेशन विकास प्लेटफ़ॉर्म और Xiaodu AI Assistant ने संयुक्त रूप से एक वॉयस इंटरैक्शन फ्रेमवर्क बनाया। इस फ्रेमवर्क पर भरोसा करते हुए, ब्रांड हार्डवेयर को सीधे उपयोगकर्ताओं के साथ ‘बात’ करने में सक्षम कर सकता है, जिससे अधिक प्राकृतिक, कुशल और व्यक्तिगत इंटरैक्टिव अनुभव प्राप्त हो सके।
MCP से A2A तक, खुलापन LLM एप्लिकेशन पारिस्थितिकी तंत्र में एक नया प्रमुख शब्द बन गया है। खुलापन Qianfan प्लेटफ़ॉर्म का मूल इरादा भी है। 2023 में अपनी रिलीज़ के पहले दिन से, Qianfan ने तीसरे पक्ष के LLMs के लिए एक बहुतायत तक पहुँचने के लिए सबसे खुले रुख को अपनाया है। वर्तमान में, Qianfan में 30 से अधिक मॉडल विक्रेताओं के 100 से अधिक मॉडल तक पहुँच है, जिसमें टेक्स्ट, इमेज और डीप रीजनिंग जैसी 11 प्रकार की क्षमताएं शामिल हैं, जिनमें DeepSeek, LLaMA, Tongyi और Vidu जैसे तीसरे पक्ष के मॉडल शामिल हैं। यह Wenxin LLMs की एक पूरी श्रृंखला भी प्रदान करता है, जिसमें हाल ही में जारी मूल मल्टी-मॉडल मॉडल Wenxin 4.5 Turbo और डीप थिंकिंग मॉडल Wenxin X1 Turbo, साथ ही पहले जारी डीप थिंकिंग मॉडल Wenxin X1 शामिल हैं।
AI तकनीक को जल्दी से लागू करने वाली कंपनियों के लिए, Baidu AI Cloud धीरे-धीरे पहली पसंद बनता जा रहा है। बाजार डेटा सबसे अच्छा प्रमाण है। वर्तमान में, Qianfan प्लेटफ़ॉर्म 400,000 से अधिक ग्राहकों को सेवा प्रदान करता है, जिसमें केंद्रीय उद्यमों में 60% से अधिक की प्रवेश दर है। चीन लार्ज मॉडल बिडिंग प्रोजेक्ट मॉनिटरिंग एंड इनसाइट रिपोर्ट (2025Q1) के अनुसार, Baidu ने पहली तिमाही में बड़े मॉडल बिडिंग परियोजनाओं की संख्या और सफल बोलियों की राशि में दोहरा पहला स्थान हासिल किया: 450 मिलियन युआन से अधिक की घोषित परियोजना राशि के साथ 19 बड़े मॉडल बिडिंग परियोजनाएं जीतीं, और जीतने वाली बड़ी मॉडल परियोजनाएं लगभग सभी ऊर्जा और वित्त जैसे उद्योगों में केंद्रीय राज्य के स्वामित्व वाले उद्यम ग्राहकों से थीं।
Baidu AI Cloud का रिपोर्ट कार्ड बाहरी दुनिया को भी एक संकेत भेजता है: AI तकनीक कार्यान्वयन के लिए इस दीर्घकालिक लड़ाई में, केवल वे समाधान जो वास्तव में उद्योग दर्द बिंदुओं को समझते हैं और कंपनियों को परीक्षण और त्रुटि लागत को कम करने में मदद कर सकते हैं, वे सबसे महत्वपूर्ण हैं।