MCP क्रांती: AI परिदृश्याचे पुनरुज्जीवन

कृत्रिम बुद्धिमत्ता (AI) क्षेत्रात ChatGPT च्या आगमनानंतर, मोठ्या भाषिक मॉडेल्समध्ये (LLMs) सुधारणा करणे हे एक महत्त्वाचे ध्येय बनले आहे. सुरुवातीला पॅरामीटरच्या आकारावर लक्ष केंद्रित केले जात होते, परंतु हळूहळू ते व्यावहारिक उपयोजनांकडे वळले. तरीही, व्यवसायांना AI चा वापर करण्यासाठी अनेक अडचणी येत आहेत. संगणकीय शक्तीचा जास्त खर्च आणि AI ॲप्लिकेशन इकोसिस्टमची विस्कळीत रचना यांसारख्या समस्या अजूनही आहेत. कंपन्या AI मध्ये मोठी गुंतवणूक करतात, पण त्यांना अपेक्षित परिणाम मिळत नाही, त्यामुळे ‘ROI dilemma’ कायम राहतो.

MCP आणि A2A चा उदय: एक नवीन दृष्टिकोन

२०२५ मध्ये मॉडेल कॉन्टेक्स्ट प्रोटोकॉल (MCP) आणि एजंट टू एजंट (A2A) प्रोटोकॉलच्या उदयासह, AI ॲप्लिकेशन डेव्हलपमेंटमध्ये एक महत्त्वाचा बदल झाला आहे. MCP चा उद्देश इंटरफेस मानकीकृत करणे, डेटा सायलोस तोडणे, LLM ला बाह्य संसाधने कार्यक्षमतेने वापरण्यास सक्षम करणे आणि सिस्टम आणि प्लॅटफॉर्मवर डेटाचा सुरळीत प्रवाह सुनिश्चित करणे आहे. A2A एजंट्समध्ये समन्वय आणि संवाद वाढवते, ज्यामुळे एकसंध आणि एकात्मिक प्रणाली तयार होतात.

MCP ते A2A मध्ये झालेले परिवर्तन AI ॲप्लिकेशन इकोसिस्टममध्ये ‘ओपननेस’ (openness) किती महत्त्वाचा आहे हे दर्शवते. या ‘ओपननेस’ मध्ये तांत्रिक आंतरकार्यक्षमता आणि सहकार्याची भावना यांचा समावेश आहे. व्यापक दृष्टीने पाहिल्यास, हे परिवर्तन तंत्रज्ञान विकासातील एक नैसर्गिक प्रगती आहे: Initial excitement पासून practical implementation पर्यंत आणि isolated innovation पासून collaborative ecosystem evolution पर्यंतचा प्रवास आहे.

आजपर्यंत, LLM चे मूल्य पॅरामीटर स्केल आणि स्टँडअलोन क्षमतेवर जास्त अवलंबून होते. परंतु, MCP आणि A2A AI ॲप्लिकेशन्समध्ये आंतरकनेक्टिव्हिटी (interconnectivity) च्या गंभीर समस्येचे निराकरण करतात आणि LLM इकोसिस्टमची स्पर्धात्मकता बदलतात. AI ॲप्लिकेशन डेव्हलपमेंट आता ‘लोन वुल्फ’ दृष्टिकोणातून Interconnectedness च्या मॉडेलमध्ये विकसित होत आहे. यासाठी CTOs नी AI मूल्यांकनाचे पुनर्मूल्यांकन करणे आवश्यक आहे. केवळ मॉडेल आकार आणि ‘ऑल-इन’ धोरणांचा पाठपुरावा करण्याऐवजी, विविध AI क्षमतांना जोडणाऱ्या प्लॅटफॉर्मचा लाभ घेणे महत्त्वाचे आहे. AI ला सध्याच्या व्यवसाय प्रक्रिया आणि उत्पादन प्रणालीमध्ये एकत्रितपणे समाविष्ट करणे, सहयोग आणि मानकीकरण करून एकूण कार्यक्षमता सुधारणे, कमी संगणकीय संसाधनांचा वापर करून गंभीर समस्या सोडवणे आणि ‘ROI dilemma’ वर मात करणे हे अंतिम ध्येय आहे.

वाया जाणारी संगणकीय शक्ती आणि चुकीचे वापर

उच्च गुंतवणूक आणि कमी आउटपुटच्या अडचणीवर मात करण्यात अयशस्वी झाल्यामुळे LLM च्या अंमलबजावणीत अनेक समस्या येतात. हे AI विकासातील विरोधाभासांना दर्शवते. पहिले म्हणजे, संगणकीय शक्तीचा मोठ्या प्रमाणात अपव्यय होतो. आकडेवारीनुसार, एंटरप्राइझ-लेव्हल जनरल-पर्पज कंप्यूटिंग सेंटर्स केवळ १०-१५% क्षमतेने चालतात, ज्यामुळे मोठ्या प्रमाणात संगणकीय संसाधने निष्क्रिय राहतात. दुसरे म्हणजे, मॉडेलची कार्यक्षमता व्यवसायिक गरजा पूर्ण करत नाही.

एक सामान्य समस्या म्हणजे मोठ्या मॉडेल्सचा वापर लहान कामांसाठी करणे, ज्यामुळे संसाधनांचा अपव्यय होतो. काही व्यवसाय साध्या ॲप्लिकेशन्ससाठी जनरल-पर्पज LLM वर जास्त अवलंबून असतात. याव्यतिरिक्त, व्यवसायिक गरजांची विशिष्टता एक समस्या निर्माण करते. मोठे मॉडेल वापरल्याने संगणकीय खर्च वाढतो आणि प्रतिसाद मिळण्यास जास्त वेळ लागतो. लहान मॉडेल्स निवडल्यास, ते व्यवसायाच्या गरजा पूर्ण करू शकत नाहीत. हा संघर्ष विशेषतः विशिष्ट डोमेन ज्ञान आवश्यक असलेल्या व्यवसायिक परिस्थितींमध्ये अधिक दिसून येतो.

उदाहरणार्थ, भरती उद्योगातील टॅलेंट-जॉब मॅचिंग (Talent-Job Matching) च्या परिस्थितीचा विचार करा. कंपन्यांना रेझ्युमे (Resume) आणि जॉब डिस्क्रिप्शनमधील (Job Description) गुंतागुंतीचे संबंध समजून घेण्यासाठी उच्च reasoning क्षमता असलेल्या मॉडेल्सची आवश्यकता असते, तसेच जलद प्रतिसाद वेळेची मागणी असते. जनरल-पर्पज LLM चा जास्त inference वेळ वापरकर्त्याच्या अनुभवाला कमी करू शकतो, विशेषतः जास्त concurrency असलेल्या परिस्थितीत.

कार्यक्षमता आणि वेग यांचा समतोल साधण्यासाठी, model distillation ही पद्धत अलीकडेच खूप लोकप्रिय झाली आहे. या वर्षाच्या सुरुवातीला DeepSeek-R1 च्या लाँचमुळे या तंत्राचे महत्त्व अधिक वाढले आहे. Model distillation मध्ये DeepSeek-R1 च्या ‘चेन ऑफ थॉट’ (Chain of Thought) पॅटर्नला कॅप्चर केले जाते. त्यामुळे, लहान मॉडेलसुद्धा (student models) केवळ आउटपुटची नक्कल न करता reasoning क्षमता आत्मसात करू शकतात.

उदाहरणार्थ, आघाडीच्या भरती प्लॅटफॉर्म Zhaopin ने DeepSeek-R1 (६००+ अब्ज पॅरामीटर्स) चा वापर teacher model म्हणून केला, जेणेकरून टॅलेंट-जॉब मॅचिंग कार्यांमध्ये chain of thought आणि निर्णय घेण्याची प्रक्रिया आत्मसात करता येईल. त्यांनी Baidu AI Cloud Qianfan model development platform चा वापर teacher model ला student model मध्ये (ERNIE Speed model, १०+ अब्ज पॅरामीटर्स) ट्रान्सफर (transfer) करण्यासाठी केला. या दृष्टिकोनमुळे teacher model प्रमाणेच performance (DeepSeek-R1 ने reasoning लिंक निकालांमध्ये ८५% अचूकता मिळवली, तर student model ने ८१% पेक्षा जास्त अचूकता मिळवली), inference स्पीड (inference speed) सुधारला आणि खर्च ३०% पर्यंत कमी झाला, तसेच DeepSeek-R1 पेक्षा १x जास्त वेग मिळाला.

सध्या, व्यवसाय सामान्यतः model distillation साठी दोन दृष्टिकोन वापरतात: पायाभूत सुविधा आणि GPUs पासून प्रशिक्षण फ्रेमवर्कपर्यंत (training frameworks) एक संपूर्ण तांत्रिक प्रणाली तयार करणे किंवा Qianfan model development platform सारख्या प्लॅटफॉर्म-आधारित सोल्यूशन्सचा (platform-based solutions) वापर करणे. Zhaopin मधील AI ॲप्लिकेशन तज्ञ याओ सिजिया (Yao Sijia) यांनी सांगितले की, Zhaopin कडे स्वतःचे प्रशिक्षण फ्रेमवर्क असले तरी, त्यांनी Qianfan model development platform निवडण्याचे तीन मुख्य कारणे आहेत:

  • सर्वंकष समर्थन: Qianfan model development platform model distillation साठी उद्योगात सर्वोत्तम समर्थन पुरवते.
  • खर्च नियंत्रण: स्वतंत्रपणे हार्डवेअर (hardware) खरेदी आणि त्याची देखभाल करण्यापेक्षा, Qianfan model development platform खर्च नियंत्रणात अधिक फायदे देते.
  • व्यवसायिक परिस्थितीची सखोल माहिती: Baidu च्या व्यावसायिक सोल्यूशन्स टीमला (professional solutions team) भरती क्षेत्रातील ‘अचूक जुळवणी’ (accurate matching) आणि ‘उच्च-concurrency प्रतिसाद’ (high-concurrency response) यांसारख्या मुख्य आवश्यकतांची सखोल माहिती आहे आणि कंपन्यांसोबत उपाय शोधण्यासाठी ते सहकार्य करतात.

याओ सिजिया यांनी पुढे सांगितले की, Zhaopin AI+ भरती क्षेत्रात (AI+ recruitment scenarios) अग्रणी राहील आणि model performance सुधारण्यासाठी Qianfan च्या Reinforcement Learning Fine-Tuning (RFT) तंत्रज्ञानाचा वापर करेल. Teacher model ची कार्यक्षमता आणखी वाढवता येते का आणि चांगल्या reward mechanisms द्वारे आधीपासून distilled केलेल्या student models ची अचूकता सुधारता येते का, यावर ते संशोधन करण्याची योजना आखत आहेत. Qianfan हे RFT आणि GRPO सारख्या reinforcement learning पद्धतींचे व्यापारीकरण करणारे चीनमधील पहिले प्लॅटफॉर्म आहे. या अत्याधुनिक reinforcement learning पद्धतींना उपयोगात आणण्यायोग्य सोल्यूशन्समध्ये रूपांतरित करून, Qianfan Zhaopin सारख्या कंपन्यांना model performance ऑप्टिमाइझ (optimize) करण्यासाठी अधिक शक्यता प्रदान करते.

तथापि, model distillation केवळ एका मॉडेलची कार्यक्षमता सुधारते. गुंतागुंतीच्या व्यवसायिक परिस्थितीत, विविध AI क्षमतांना परिस्थितीनुसार जुळवणे आवश्यक आहे.

स्मार्टफोनचे उदाहरण घेऊया. कॉल असिस्टंटसारख्या intent recognition परिस्थितीत, वापरकर्त्याच्या समस्या त्वरित ओळखण्यासाठी हलक्या मॉडेलचा (lightweight models) वापर केला जातो. हवामानाची (weather queries) माहिती आणि बातम्यांसारख्या (news retrieval) सामान्य ज्ञान प्रश्नांसाठी (general knowledge Q&A scenarios), अचूक आणि माहितीपूर्ण उत्तरे देण्यासाठी मध्यम आकाराचे मॉडेल वापरले जातात. डेटा विश्लेषण आणि तार्किक reasoning (logical reasoning) च्या परिस्थितीत, मोठ्या मॉडेलचा वापर केला जातो.

याचा अर्थ असा आहे की स्मार्टफोनला वेगवेगळ्या user demand परिस्थितीत अनेक LLM चा वापर लवचिकपणे (flexibly) करता आला पाहिजे. स्मार्टफोन उत्पादकांसाठी, यामुळे उच्च मॉडेल निवड खर्च आणि वेगवेगळ्या मॉडेल इंटरफेस प्रोटोकॉलमुळे (model interface protocols) गुंतागुंतीच्या calling process सारख्या समस्या येतात.

या उद्योगातील समस्यांचे निराकरण करण्यासाठी, Qianfan model development platform ने मॉडेल राउटिंग इंटरफेस (model routing interfaces) तयार केले आहेत. ओरिजनल फॅक्टरी मॉडेल (original factory models) थेट वापरण्याऐवजी, हे प्लॅटफॉर्म custom development आणि out-of-the-box API calling product capabilities प्रदान करते, ज्यामुळे कंपन्यांना engineering workload आणि development वेळेची बचत होते, तसेच खर्चही कमी होतो. याव्यतिरिक्त, Qianfan model development platform मोठ्या प्रमाणावर वापरकर्त्यांसाठी लवचिक calling ला सपोर्ट (support) करते, ज्यामुळे high-frequency आणि high-concurrency calling demand मध्ये सुद्धा वेग आणि स्थिरता सुनिश्चित होते.

Model पातळीवर, model distillation आणि multi-model calling सारखी तांत्रिक क्षमता अधिकाधिक कंपन्यांना संसाधनांचे वाटप ऑप्टिमाइझ (optimize) करण्यास मदत करत आहेत, ज्यामुळे AI क्षमता व्यवसायिक गरजांशी जुळतात आणि खर्च कमी होतो. ॲप्लिकेशन स्तरावर, MCP आणि A2A मुळे AI trial-and-error खर्च कमी होतो, कंपन्यांना ॲप्लिकेशन collaboration paradigms ऑप्टिमाइझ (optimize) करण्यास मदत होते आणि पारंपरिक एजंट डेव्हलपमेंटमधील (agent development) ‘re-inventing the wheel’ मॉडेलमध्ये बदल होतो.

मॉडेल्स ते ॲप्लिकेशन्सपर्यंतचा ‘combination punch’ LLM ला ‘ROI dilemma’ वर मात करण्यासाठी योग्य उपाय आहे.

Closed पासून Open पर्यंत: AI प्रयोगातील अडथळे कमी करणे

२०२३ पासून, AI ॲप्लिकेशन अंमलबजावणीसाठी Agent हा महत्त्वाचा शब्द बनला आहे. २०२४ पर्यंत, जवळजवळ सर्व कंपन्या Agent ॲप्लिकेशन्स आणि डेव्हलपमेंटबद्दल चर्चा करत होत्या. तथापि, त्यावेळच्या एजंट्समध्ये planning क्षमता नव्हती आणि ते workflow दृष्टिकोन, LLM आणि मूलभूत ॲप्लिकेशन्सना expert-driven नियमांनुसार कनेक्ट (connect) करण्यावर आधारित होते.

अलीकडील MCP आणि A2A प्रोटोकॉलच्या वाढीमुळे, २०२५ हे खरे ‘Agent Year Zero’ ठरले आहे. विशेषतः, AI क्षेत्रावर MCP चा प्रभाव TCP/IP प्रोटोकॉलच्या इंटरनेटवरील प्रभावासारखाच आहे.

Biyao Technology चे CEO झोऊ झेआन (Zhou Ze’an) यांनी InfoQ ला दिलेल्या मुलाखतीत सांगितले की, MCP चे AI क्षेत्रातील मुख्य मूल्य तीन गोष्टींमध्ये दिसून येते:

  • LLM टूल कॉलिंगचे मानकीकरण: पूर्वी, प्रत्येक कंपनीची स्वतःची फंक्शन कॉल अंमलबजावणी होती, ज्यात मोठे फरक होते. MCP एक unified ॲक्सेस स्टँडर्ड (unified access standard) स्थापित करते, ज्यामुळे क्लायंट (client) आणि सर्व्हरमधील (server) ॲप्लिकेशन शेड्युलिंग योजनांचे खरे मानकीकरण होते. याव्यतिरिक्त, MCP केवळ फंक्शन कॉलला सपोर्ट (support) करणाऱ्या LLM मध्येच नव्हे, तर ज्या LLM मध्ये ही सुविधा नाही त्यांच्याशी सुद्धा संवाद साधण्यास सक्षम आहे.
  • टूल collaboration च्या समस्यांचे निराकरण: MCP प्रोटोकॉलचे unified स्टँडर्ड (unified standard) एजंट सेवांची निर्मिती अधिक वैविध्यपूर्ण करते. डेव्हलपर्सनी (developers) केवळ त्यांचे स्वतःचे एजंट्स आणि MCP सेवांचाच विचार न करता, अधिक शक्तिशाली एजंट फंक्शन्स (agent functions) साध्य करण्यासाठी बाह्य क्षमतांना एकत्रित कसे करावे याचाही विचार करणे आवश्यक आहे.
  • LLM द्वारे संपूर्ण Context नियंत्रित करणे, ज्यामुळे अधिक user-friendly संवाद होतो: प्रक्रिया तयार करताना, पूर्वी अशक्य असलेली गुंतागुंतीची कार्ये सोडवण्यासाठी डेटा स्रोतांची विस्तृत श्रेणी वापरली जाऊ शकते.

“एकंदरीत, MCP प्रोटोकॉल कंपन्यांसाठी AI तंत्रज्ञान स्वीकारण्याचे अडथळे मोठ्या प्रमाणात कमी करतो. पूर्वी, एजंट्स ॲक्सेस (access) करण्याची तांत्रिक प्रक्रिया (technical process) गुंतागुंतीची होती. आता, कंपन्यांना गुंतागुंतीच्या तांत्रिक अंमलबजावणी तपशीलांमध्ये (technical implementation details) खोलवर जाण्याची गरज नाही, तर फक्त त्यांच्या व्यवसायिक गरजा स्पष्ट करण्याची आवश्यकता आहे,” असे झोऊ झेआन (Zhou Ze’an) म्हणाले. Biyao Technology ने MCP प्रोटोकॉलद्वारे त्यांच्या स्वतःच्या human resources industry vertical LLM ‘Bole’ ची डॉक्युमेंट (document) प्रक्रिया क्षमता पूर्णपणे उघडली आहे, ज्यामध्ये करार, रेझ्युमे (resume) आणि PPT चा समावेश आहे. Qianfan ॲप्लिकेशन डेव्हलपमेंट प्लॅटफॉर्मवर (application development platform) MCP कंपोनंट्स (components) लाँच (launch) करणारी Biyao Technology ही पहिली कंपनी ठरली आहे. सध्या, कोणताही व्यवसाय किंवा वैयक्तिक डेव्हलपर Qianfan प्लॅटफॉर्मवर (platform) त्यांच्या व्यावसायिक क्षमतांना थेट ॲक्सेस (access) करू शकतो.

‘Baidu डेव्हलपर्सना (developers) सक्रियपणे आणि सर्वसमावेशकपणे MCP स्वीकारण्यास मदत करेल.’ २५ एप्रिल रोजी झालेल्या Create2025 Baidu AI डेव्हलपर (developer) कॉन्फरन्समध्ये, Qianfan प्लॅटफॉर्मने अधिकृतपणे enterprise-level MCP सेवा सुरू केल्या. Baidu चे संस्थापक ली यानहोंग (Li Yanhong) यांनी Qianfan प्लॅटफॉर्म MCP चा स्वीकार करत असल्याचे उदाहरण दाखवले. यामुळे डेव्हलपर्सना (developers) एजंट्स तयार करताना Baidu AI search, maps आणि Wenku सह १००० MCP सर्व्हर्सना (servers) लवचिकपणे ॲक्सेस (access) मिळतो. याव्यतिरिक्त, Qianfan ने MCP सर्व्हर्स (servers) तयार करण्यासाठी एक low-code टूल (low-code tool) लाँच (launch) केले आहे, ज्यामुळे डेव्हलपर्स (developers) Qianfan वर त्यांचे स्वतःचे MCP सर्व्हर्स (servers) सहजपणे डेव्हलप (develop) करू शकतात आणि एका क्लिकवर Qianfan MCP स्क्वेअरवर (square) प्रकाशित करू शकतात. हे MCP सर्व्हर्स (servers) Baidu search द्वारे त्वरित अनुक्रमित (indexed) केले जातील, ज्यामुळे ते अधिक डेव्हलपर्सना (developers) शोधता आणि वापरता येतील.

खरं तर, Qianfan ने MCP प्रोटोकॉलच्या (protocol) वाढीपूर्वी AI अंमलबजावणीची (implementation) समस्या सतत सोडवली आहे, कंपन्यांना AI तंत्रज्ञानाचा कमी खर्चात आणि कार्यक्षमतेने लाभ मिळवण्यास मदत केली आहे आणि अनेक उद्योगांसाठी परिपक्व सोल्यूशन्स (mature solutions) प्रदान केले आहेत.

उदाहरणार्थ, स्मार्ट होम (smart home) उद्योगात, कंपन्यांना सामान्यतः एका समस्येचा सामना करावा लागतो: मोठ्या प्रमाणात product models साठी अचूक intelligent सेवा कशा पुरवायच्या? LLM च्या जलद अंमलबजावणीमुळे, अधिकाधिक कंपन्या वापरकर्त्यांना अचूक आणि वैयक्तिकृत उत्तरे देण्यासाठी एजंट्सचा वापर करत आहेत. तथापि, यामुळे एक नवीन आव्हान निर्माण झाले आहे: असंख्य एजंट्स (agents) कसे डेव्हलप (develop) आणि मॅनेज (manage) करायचे? स्मार्ट होम (smart home) ब्रँडमध्ये सामान्यतः वेगवेगळ्या product categories आणि models असतात. प्रत्येक प्रॉडक्टसाठी (product) स्वतंत्रपणे एजंट (agent) तयार केल्याने, विकास खर्च (development costs) वाढतो, तसेच नंतरच्या टप्प्यात व्यवस्थापन आणि देखभाल खर्च देखील वाढतो.

उदाहरणार्थ, एका आघाडीच्या स्मार्ट होम ब्रँडने (smart home brand) Baidu AI Cloud Qianfan ॲप्लिकेशन डेव्हलपमेंट प्लॅटफॉर्मचा (application development platform) वापर करून फाइल नावांना स्वतंत्र स्लाइस (slice) मानले आणि प्रत्येक फाइन-ग्रेन्ड स्लाइसमध्ये (fine-grained slice) फाइल नावांची माहिती एम्बेड (embed) केली. प्रत्येक प्रॉडक्टसाठी (product) स्वतंत्रपणे एजंट (agent) तयार करण्याऐवजी, त्यांनी फक्त संबंधित नॉलेज बेस (knowledge base) क्रमवारी लावली आणि product model चे नाव परिभाषित केले. नंतर, त्यांनी Qianfan प्लॅटफॉर्मच्या (platform) RAG फ्रेमवर्क ऑटोमॅटिक (automatic) पार्सिंग स्ट्रॅटेजीचा (parsing strategy) वापर करून product models आणि knowledge points चे अचूक जुळवणी (matching) केली.

Qianfan ॲप्लिकेशन डेव्हलपमेंट प्लॅटफॉर्मने (application development platform) ब्रँडला (brand) सतत विकसित होणारे intelligent हब (intelligent hub) तयार करण्यासाठी ऑपरेशन्स टूल्सचा (operations tools) एक संच देखील प्रदान केला आहे. डेटा बॅकफ्लो फंक्शनद्वारे, वापरकर्त्याच्या संवादाचे सर्व रेकॉर्ड (record) ऑप्टिमायझेशन मटेरियलमध्ये (optimization material) रूपांतरित केले जातात. ऑपरेशन्स (operations) कर्मचारी उच्च-वारंवारता समस्या (high-frequency problems) रिअल टाइममध्ये (real time) पाहू शकतात आणि न उघडलेल्या knowledge points वर त्वरित हस्तक्षेप करू शकतात, ज्यामुळे ‘ऑपरेशन (operation) - फीडबॅक (feedback) - ऑप्टिमायझेशन’ (optimization) चक्र तयार होते. याव्यतिरिक्त, Qianfan ॲप्लिकेशन डेव्हलपमेंट प्लॅटफॉर्म (application development platform) आणि Xiaodu AI असिस्टंटने (assistant) एकत्रितपणे व्हॉइस इंटरॅक्शन फ्रेमवर्क (voice interaction framework) तयार केले. या फ्रेमवर्कवर अवलंबून, ब्रँड (brand) हार्डवेअरला (hardware) वापरकर्त्यांशी थेट ‘बोलण्यास’ सक्षम करू शकतो, ज्यामुळे अधिक नैसर्गिक, कार्यक्षम आणि वैयक्तिकृत संवाद अनुभव मिळतो.

MCP ते A2A पर्यंत, ओपननेस (openness) LLM ॲप्लिकेशन इकोसिस्टममधील (application ecosystem) एक नवीन महत्त्वाचा शब्द बनला आहे. ओपननेस (openness) हा Qianfan प्लॅटफॉर्मचा (platform) मूळ उद्देश आहे. २०२३ मध्ये रिलीज (release) झाल्यापासून, Qianfan ने थर्ड-पार्टी LLM चा (third-party LLM) मोठ्या प्रमाणात ॲक्सेस (access) करण्यासाठी सर्वात open भूमिका स्वीकारली आहे. सध्या, Qianfan ने DeepSeek, LLaMA, Tongyi आणि Vidu यांसारख्या थर्ड-पार्टी मॉडेलसह (third-party model) ३० पेक्षा जास्त मॉडेल विक्रेत्यांकडून (model vendors) १०० हून अधिक मॉडेल्सना ॲक्सेस (access) दिला आहे, ज्यात टेक्स्ट (text), इमेज (image) आणि डीप रीझनिंग (deep reasoning) सारख्या ११ प्रकारच्या क्षमतांचा समावेश आहे. तसेच, नव्याने रिलीज (release) झालेले Wenxin 4.5 Turbo आणि डीप थिंकिंग मॉडेल (deep thinking model) Wenxin X1 Turbo, तसेच यापूर्वी रिलीज (release) झालेले डीप थिंकिंग मॉडेल (deep thinking model) Wenxin X1 सह Wenxin LLM ची संपूर्ण श्रेणी यात उपलब्ध आहे.

ज्या कंपन्यांना AI तंत्रज्ञान त्वरित implement करायचे आहे, त्यांच्यासाठी Baidu AI Cloud हळूहळू पहिला पर्याय बनत आहे. बाजारातील आकडेवारी हेच सिद्ध करते. सध्या, Qianfan प्लॅटफॉर्म ४,००,००० हून अधिक ग्राहकांना सेवा पुरवते, ज्यामध्ये केंद्रीय उद्योगांमध्ये ६०% पेक्षा जास्त penetration rate आहे. China Large Model Bidding Project Monitoring and Insight Report (2025Q1) नुसार, Baidu ने पहिल्या तिमाहीत मोठ्या मॉडेल (large model) निविदा प्रकल्पांच्या संख्येत आणि जिंकलेल्या बोली रकमेत दुहेरी पहिला क्रमांक पटकावला: ४५० दशलक्ष युआन पेक्षा जास्त रकमेच्या १९ मोठ्या मॉडेल निविदा प्रकल्प जिंकले आणि जिंकलेले मोठे मॉडेल प्रकल्प ऊर्जा आणि वित्त यांसारख्या क्षेत्रांतील केंद्रीय राज्य-मालकीच्या (state-owned) उद्योगांमधील होते.

Baidu AI Cloud चा रिपोर्ट कार्ड (report card) बाहेरील जगाला एक संदेश पाठवतो: AI तंत्रज्ञान अंमलबजावणीच्या (implementation) या दीर्घकालीन लढाईत, जे सोल्यूशन्स (solutions) उद्योगातील समस्या खऱ्या अर्थाने समजून घेतात आणि कंपन्यांना trial-and-error खर्च कमी करण्यास मदत करतात, तेच जास्त महत्त्वाचे आहेत.