ਐਮਸੀਪੀ ਇਨਕਲਾਬ: ਏਆਈ ਲੈਂਡਸਕੇਪ ਨੂੰ ਮੁੜ ਆਕਾਰ ਦੇਣਾ

ਐਮਸੀਪੀ ਅਤੇ ਏ2ਏ ਦਾ ਆਗਮਨ: ਇੱਕ ਪੈਰਾਡਾਈਮ ਸ਼ਿਫਟ

2025 ਵਿੱਚ ਮਾਡਲ ਸੰਦਰਭ ਪ੍ਰੋਟੋਕੋਲ (ਐਮਸੀਪੀ) ਅਤੇ ਏਜੰਟ2ਏਜੰਟ (ਏ2ਏ) ਪ੍ਰੋਟੋਕੋਲ ਦਾ ਉਭਾਰ ਏਆਈ ਐਪਲੀਕੇਸ਼ਨ ਵਿਕਾਸ ਦੇ ਵਿਕਾਸ ਵਿੱਚ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਪਲ ਹੈ। ਐਮਸੀਪੀ ਦਾ ਉਦੇਸ਼ ਡਾਟਾ ਸਿਲੋਜ਼ ਨੂੰ ਤੋੜਨ ਲਈ ਇੰਟਰਫੇਸ ਨੂੰ ਸਟੈਂਡਰਡਾਈਜ਼ ਕਰਨਾ ਹੈ, ਐਲਐਲਐਮਜ਼ ਨੂੰ ਬਾਹਰੀ ਸਰੋਤਾਂ ਤੱਕ ਕੁਸ਼ਲਤਾ ਨਾਲ ਪਹੁੰਚ ਕਰਨ ਦੇ ਯੋਗ ਬਣਾਉਣਾ ਅਤੇ ਸਿਸਟਮਾਂ ਅਤੇ ਪਲੇਟਫਾਰਮਾਂ ਵਿੱਚ ਨਿਰਵਿਘਨ ਡਾਟਾ ਪ੍ਰਵਾਹ ਦੀ ਸਹੂਲਤ ਦੇਣਾ ਹੈ। ਏ2ਏ ਹੋਰ ਏਜੰਟਾਂ ਵਿਚਕਾਰ ਨਿਰਵਿਘਨ ਪਰਸਪਰ ਪ੍ਰਭਾਵ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਦਾ ਹੈ, ਸਹਿਯੋਗ ਅਤੇ ਸੰਚਾਰ ਨੂੰ ਵਧਾਵਾ ਦਿੰਦਾ ਹੈ ਤਾਂ ਜੋ ਇੱਕ ਸਹਿਜ, ਏਕੀਕ੍ਰਿਤ ਸਿਸਟਮ ਬਣਾਇਆ ਜਾ ਸਕੇ।

ਐਮਸੀਪੀ ਤੋਂ ਏ2ਏ ਵਿੱਚ ਤਬਦੀਲੀ ਏਆਈ ਐਪਲੀਕੇਸ਼ਨ ਈਕੋਸਿਸਟਮ ਵਿੱਚ ਇੱਕ ਮੁੱਖ ਡਰਾਈਵਰ ਵਜੋਂ ‘ਖੁੱਲੇਪਣ’ ‘ਤੇ ਵਧ ਰਹੇ ਜ਼ੋਰ ਨੂੰ ਦਰਸਾਉਂਦੀ ਹੈ। ਇਸ ਖੁੱਲੇਪਣ ਵਿੱਚ ਤਕਨੀਕੀ ਅੰਤਰ-ਕਾਰਜਸ਼ੀਲਤਾ ਅਤੇ ਸਹਿਯੋਗੀ ਭਾਵਨਾ ਦੋਵੇਂ ਸ਼ਾਮਲ ਹਨ। ਇੱਕ ਵਿਆਪਕ ਦ੍ਰਿਸ਼ਟੀਕੋਣ ਤੋਂ, ਇਹ ਤਬਦੀਲੀ ਤਕਨਾਲੋਜੀ ਵਿਕਾਸ ਵਿੱਚ ਇੱਕ ਕੁਦਰਤੀ ਤਰੱਕੀ ਨੂੰ ਦਰਸਾਉਂਦੀ ਹੈ: ਸ਼ੁਰੂਆਤੀ ਉਤਸ਼ਾਹ ਤੋਂ ਲੈ ਕੇ ਵਿਹਾਰਕ ਲਾਗੂਕਰਨ ਤੱਕ, ਅਤੇ ਇਕੱਲੇ ਨਵੀਨਤਾ ਤੋਂ ਲੈ ਕੇ ਸਹਿਯੋਗੀ ਈਕੋਸਿਸਟਮ ਵਿਕਾਸ ਤੱਕ।

ਇਤਿਹਾਸਕ ਤੌਰ ‘ਤੇ, ਐਲਐਲਐਮਜ਼ ਦਾ ਮੁੱਲ ਅਨੁਪਾਤਕ ਤੌਰ ‘ਤੇ ਪੈਰਾਮੀਟਰ ਸਕੇਲ ਅਤੇ ਇਕੱਲੇ ਸਮਰੱਥਾਵਾਂ ਨੂੰ ਦਿੱਤਾ ਗਿਆ ਹੈ। ਅੱਜ, ਐਮਸੀਪੀ ਅਤੇ ਏ2ਏ ਏਆਈ ਐਪਲੀਕੇਸ਼ਨਾਂ ਵਿਚਕਾਰ ਅੰਤਰ-ਸੰਪਰਕ ਦੇ ਨਾਜ਼ੁਕ ਮੁੱਦੇ ਨੂੰ ਹੱਲ ਕਰਦੇ ਹਨ ਅਤੇ ਐਲਐਲਐਮ ਈਕੋਸਿਸਟਮ ਦੀ ਪ੍ਰਤੀਯੋਗੀ ਗਤੀਸ਼ੀਲਤਾ ਨੂੰ ਮੁੜ ਆਕਾਰ ਦਿੰਦੇ ਹਨ। ਏਆਈ ਐਪਲੀਕੇਸ਼ਨ ਵਿਕਾਸ ਇੱਕ ‘ਲੋਨ ਵੁਲਫ’ ਪਹੁੰਚ ਤੋਂ ਅੰਤਰ-ਸੰਬੰਧਿਤਤਾ ਦੇ ਮਾਡਲ ਵਿੱਚ ਵਿਕਸਤ ਹੋ ਰਿਹਾ ਹੈ। ਇਸ ਲਈ ਸੀਟੀਓ ਲਈ ਏਆਈ ਮੁੱਲ ਦਾ ਮੁੜ ਮੁਲਾਂਕਣ ਕਰਨਾ ਜ਼ਰੂਰੀ ਹੈ, ਸਿਰਫ਼ ਮਾਡਲ ਆਕਾਰ ਅਤੇ ‘ਆਲ-ਇਨ’ ਰਣਨੀਤੀਆਂ ਦਾ ਪਿੱਛਾ ਕਰਨ ਦੀ ਬਜਾਏ ਪਲੇਟਫਾਰਮਾਂ ਦਾ ਲਾਭ ਉਠਾਉਣ ‘ਤੇ ਧਿਆਨ ਕੇਂਦਰਿਤ ਕਰਨਾ ਜੋ ਵਿਭਿੰਨ ਏਆਈ ਸਮਰੱਥਾਵਾਂ ਨੂੰ ਜੋੜਦੇ ਹਨ। ਟੀਚਾ ਹੈ ਕਿ ਏਆਈ ਨੂੰ ਜੈਵਿਕ ਤੌਰ ‘ਤੇ ਮੌਜੂਦਾ ਕਾਰੋਬਾਰੀ ਪ੍ਰਕਿਰਿਆਵਾਂ ਅਤੇ ਉਤਪਾਦਨ ਪ੍ਰਣਾਲੀਆਂ ਵਿੱਚ ਸ਼ਾਮਲ ਕਰਨਾ, ਸਹਿਯੋਗ ਅਤੇ ਸਟੈਂਡਰਡਾਈਜ਼ੇਸ਼ਨ ਦੁਆਰਾ ਸਮੁੱਚੀ ਕੁਸ਼ਲਤਾ ਵਿੱਚ ਸੁਧਾਰ ਕਰਨਾ, ਘੱਟੋ-ਘੱਟ ਗਣਨਾ ਸਰੋਤਾਂ ਨਾਲ ਨਾਜ਼ੁਕ ਸਮੱਸਿਆਵਾਂ ਨੂੰ ਹੱਲ ਕਰਨਾ, ਅਤੇ ‘ਆਰਓਆਈ ਦੁਬਿਧਾ’ ਨੂੰ ਦੂਰ ਕਰਨਾ।

ਬਰਬਾਦ ਕੰਪਿਊਟ ਅਤੇ ਗਲਤ ਤਰੀਕੇ ਨਾਲ ਅਲਾਈਨਡ ਸਿਨੇਰੀਓਜ਼

ਉੱਚ-ਨਿਵੇਸ਼, ਘੱਟ-ਆਉਟਪੁੱਟ ਰੁਕਾਵਟ ਨੂੰ ਦੂਰ ਕਰਨ ਵਿੱਚ ਅਸਮਰੱਥਾ ਨੇ ਲੰਬੇ ਸਮੇਂ ਤੋਂ ਐਲਐਲਐਮਜ਼ ਦੇ ਲਾਗੂਕਰਨ ਨੂੰ ਪ੍ਰਭਾਵਿਤ ਕੀਤਾ ਹੈ। ਇਹ ਵਰਤਾਰਾ ਏਆਈ ਵਿਕਾਸ ਵਿੱਚ ਡੂੰਘੇ-ਬੈਠੇ ਵਿਰੋਧਾਭਾਸਾਂ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ। ਪਹਿਲਾਂ, ਕੰਪਿਊਟਿੰਗ ਪਾਵਰ ਵਿੱਚ ਮਹੱਤਵਪੂਰਨ ਬਰਬਾਦੀ ਹੁੰਦੀ ਹੈ। ਡਾਟਾ ਦਰਸਾਉਂਦਾ ਹੈ ਕਿ ਐਂਟਰਪ੍ਰਾਈਜ਼-ਪੱਧਰ ਦੇ ਆਮ-ਉਦੇਸ਼ ਗਣਨਾ ਕੇਂਦਰ ਸਿਰਫ਼ 10-15% ਉਪਯੋਗਤਾ ‘ਤੇ ਕੰਮ ਕਰਦੇ ਹਨ, ਜਿਸ ਨਾਲ ਗਣਨਾ ਸਰੋਤਾਂ ਦੀ ਵੱਡੀ ਮਾਤਰਾ ਵਿਹਲੀ ਰਹਿੰਦੀ ਹੈ। ਦੂਜਾ, ਦ੍ਰਿਸ਼ਾਂ ਦਾ ਗਲਤ ਤਰੀਕੇ ਨਾਲ ਇਕਸਾਰ ਹੋਣਾ ਹੈ ਜਿੱਥੇ ਮਾਡਲ ਦੀ ਕਾਰਗੁਜ਼ਾਰੀ ਕਾਰੋਬਾਰੀ ਦ੍ਰਿਸ਼ਾਂ ਦੀਆਂ ਅਸਲ ਜ਼ਰੂਰਤਾਂ ਨੂੰ ਪੂਰਾ ਨਹੀਂ ਕਰਦੀ।

ਇੱਕ ਆਮ ਮੁੱਦਾ ਹਲਕੇ ਕੰਮਾਂ ਲਈ ਵੱਡੇ ਮਾਡਲਾਂ ਦੀ ਵਰਤੋਂ ਦਾ ‘ਓਵਰਕਿਲ’ ਹੈ। ਕੁਝ ਕਾਰੋਬਾਰ ਸਧਾਰਨ ਐਪਲੀਕੇਸ਼ਨਾਂ ਲਈ ਆਮ-ਉਦੇਸ਼ ਐਲਐਲਐਮਜ਼ ‘ਤੇ ਜ਼ਿਆਦਾ ਨਿਰਭਰ ਕਰਦੇ ਹਨ। ਇਸ ਤੋਂ ਇਲਾਵਾ, ਕਾਰੋਬਾਰੀ ਦ੍ਰਿਸ਼ਾਂ ਦੀ ਵਿਲੱਖਣ ਪ੍ਰਕਿਰਤੀ ਦੁਬਿਧਾਵਾਂ ਪੈਦਾ ਕਰਦੀ ਹੈ। ਵੱਡੇ ਮਾਡਲਾਂ ਦੀ ਵਰਤੋਂ ਕਰਨ ਨਾਲ ਗਣਨਾ ਦੀ ਉੱਚ ਲਾਗਤ ਅਤੇ ਲੰਬੇ ਅਨੁਮਾਨ ਸਮੇਂ ਲੱਗਦੇ ਹਨ। ਛੋਟੇ ਮਾਡਲਾਂ ਦੀ ਚੋਣ ਕਰਨਾ ਕਾਰੋਬਾਰੀ ਜ਼ਰੂਰਤਾਂ ਨੂੰ ਪੂਰਾ ਨਹੀਂ ਕਰ ਸਕਦਾ। ਇਹ ਟਕਰਾਅ ਵਿਸ਼ੇਸ਼ ਡੋਮੇਨ ਗਿਆਨ ਦੀ ਲੋੜ ਵਾਲੇ ਕਾਰੋਬਾਰੀ ਦ੍ਰਿਸ਼ਾਂ ਵਿੱਚ ਖਾਸ ਤੌਰ ‘ਤੇ ਸਪੱਸ਼ਟ ਹੈ।

ਭਰਤੀ ਉਦਯੋਗ ਵਿੱਚ ਪ੍ਰਤਿਭਾ-ਨੌਕਰੀ ਮੈਚਿੰਗ ਦ੍ਰਿਸ਼ ‘ਤੇ ਵਿਚਾਰ ਕਰੋ। ਕੰਪਨੀਆਂ ਨੂੰ ਰੈਜ਼ਿਊਮੇ ਅਤੇ ਨੌਕਰੀ ਦੇ ਵੇਰਵਿਆਂ ਵਿਚਕਾਰ ਗੁੰਝਲਦਾਰ ਸਬੰਧਾਂ ਨੂੰ ਸਮਝਣ ਲਈ ਡੂੰਘੇ ਤਰਕ ਦੀਆਂ ਯੋਗਤਾਵਾਂ ਵਾਲੇ ਮਾਡਲਾਂ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ ਜਦੋਂ ਕਿ ਤੇਜ਼ ਜਵਾਬ ਸਮੇਂ ਦੀ ਵੀ ਮੰਗ ਕੀਤੀ ਜਾਂਦੀ ਹੈ। ਆਮ-ਉਦੇਸ਼ ਐਲਐਲਐਮਜ਼ ਦੇ ਲੰਬੇ ਅਨੁਮਾਨ ਸਮੇਂ ਉੱਚ-ਸਮਕਾਲੀ ਉਪਭੋਗਤਾ ਮੰਗਾਂ ਦੇ ਅਧੀਨ ਉਪਭੋਗਤਾ ਅਨੁਭਵ ਨੂੰ ਮਹੱਤਵਪੂਰਨ ਤੌਰ ‘ਤੇ ਘਟਾ ਸਕਦੇ ਹਨ।

ਪ੍ਰਦਰਸ਼ਨ ਅਤੇ ਕੁਸ਼ਲਤਾ ਨੂੰ ਸੰਤੁਲਿਤ ਕਰਨ ਲਈ, ਮਾਡਲ ਡਿਸਟੀਲੇਸ਼ਨ ਨੇ ਹਾਲ ਹੀ ਦੇ ਸਾਲਾਂ ਵਿੱਚ ਖਿੱਚ ਪ੍ਰਾਪਤ ਕੀਤੀ ਹੈ। ਇਸ ਸਾਲ ਦੇ ਸ਼ੁਰੂ ਵਿੱਚ DeepSeek-R1 ਦੀ ਸ਼ੁਰੂਆਤ ਨੇ ਇਸ ਤਕਨੀਕ ਦੇ ਮੁੱਲ ਨੂੰ ਹੋਰ ਉਜਾਗਰ ਕੀਤਾ ਹੈ। ਗੁੰਝਲਦਾਰ ਤਰਕ ਕਾਰਜਾਂ ਨੂੰ ਸੰਭਾਲਣ ਵਿੱਚ, ਮਾਡਲ ਡਿਸਟੀਲੇਸ਼ਨ DeepSeek-R1 ਦੇ ‘ਚੇਨ ਆਫ਼ ਥੌਟ’ ਪੈਟਰਨ ਨੂੰ ਹਾਸਲ ਕਰਦਾ ਹੈ, ਜਿਸ ਨਾਲ ਹਲਕੇ ਵਿਦਿਆਰਥੀ ਮਾਡਲ ਸਿਰਫ਼ ਆਉਟਪੁੱਟ ਨਤੀਜਿਆਂ ਦੀ ਨਕਲ ਕਰਨ ਦੀ ਬਜਾਏ ਇਸਦੀਆਂ ਤਰਕ ਯੋਗਤਾਵਾਂ ਨੂੰ ਵਿਰਾਸਤ ਵਿੱਚ ਪ੍ਰਾਪਤ ਕਰ ਸਕਦੇ ਹਨ।

ਉਦਾਹਰਨ ਲਈ, Zhaopin, ਇੱਕ ਪ੍ਰਮੁੱਖ ਭਰਤੀ ਪਲੇਟਫਾਰਮ, ਨੇ ਪ੍ਰਤਿਭਾ-ਨੌਕਰੀ ਮੈਚਿੰਗ ਕਾਰਜਾਂ ਵਿੱਚ ਵਰਤੇ ਗਏ ਵਿਚਾਰਾਂ ਦੀ ਚੇਨ ਅਤੇ ਫੈਸਲਾ ਲੈਣ ਦੇ ਤਰਕ ਨੂੰ ਡਿਸਟਿਲ ਕਰਨ ਲਈ ਇੱਕ ਅਧਿਆਪਕ ਮਾਡਲ ਵਜੋਂ DeepSeek-R1 (600+ ਅਰਬ ਪੈਰਾਮੀਟਰ) ਦੀ ਵਰਤੋਂ ਕੀਤੀ। ਉਹਨਾਂ ਨੇ ਅਧਿਆਪਕ ਮਾਡਲ ਨੂੰ ਡਿਸਟਿਲ ਕਰਨ ਅਤੇ ਇਸਨੂੰ ERNIE ਸਪੀਡ ਮਾਡਲ (10+ ਅਰਬ ਪੈਰਾਮੀਟਰ), ਵਿਦਿਆਰਥੀ ਮਾਡਲ ਵਿੱਚ ਟ੍ਰਾਂਸਫਰ ਕਰਨ ਲਈ Baidu AI ਕਲਾਉਡ Qianfan ਮਾਡਲ ਵਿਕਾਸ ਪਲੇਟਫਾਰਮ ਦੀ ਵਰਤੋਂ ਕੀਤੀ। ਇਸ ਪਹੁੰਚ ਨੇ ਅਧਿਆਪਕ ਮਾਡਲ ਦੇ ਮੁਕਾਬਲੇ ਪ੍ਰਦਰਸ਼ਨ ਪ੍ਰਾਪਤ ਕੀਤਾ (DeepSeek-R1 ਨੇ ਤਰਕ ਲਿੰਕ ਨਤੀਜਿਆਂ ਵਿੱਚ 85% ਸ਼ੁੱਧਤਾ ਪ੍ਰਾਪਤ ਕੀਤੀ, ਜਦੋਂ ਕਿ ਵਿਦਿਆਰਥੀ ਮਾਡਲ ਨੇ 81% ਤੋਂ ਵੱਧ ਪ੍ਰਾਪਤ ਕੀਤਾ), ਅਨੁਮਾਨ ਦੀ ਗਤੀ ਨੂੰ ਇੱਕ ਸਵੀਕਾਰਯੋਗ ਪੱਧਰ ਤੱਕ ਸੁਧਾਰਿਆ, ਅਤੇ ਪੂਰੀ ਤਰ੍ਹਾਂ ਨਾਲ DeepSeek-R1 ਨਾਲੋਂ 1x ਤੇਜ਼ ਗਤੀ ਪ੍ਰਾਪਤ ਕਰਦੇ ਹੋਏ ਅਸਲ ਦਾ 30% ਤੱਕ ਲਾਗਤਾਂ ਨੂੰ ਘਟਾ ਦਿੱਤਾ।

ਵਰਤਮਾਨ ਵਿੱਚ, ਕਾਰੋਬਾਰ ਆਮ ਤੌਰ ‘ਤੇ ਮਾਡਲ ਡਿਸਟੀਲੇਸ਼ਨ ਲਈ ਦੋ ਤਰੀਕਿਆਂ ਨੂੰ ਅਪਣਾਉਂਦੇ ਹਨ: ਬੁਨਿਆਦੀ ਢਾਂਚੇ ਅਤੇ ਜੀਪੀਯੂ ਤੋਂ ਲੈ ਕੇ ਸਿਖਲਾਈ ਫਰੇਮਵਰਕ ਤੱਕ ਇੱਕ ਸੰਪੂਰਨ ਤਕਨੀਕੀ ਪ੍ਰਣਾਲੀ ਬਣਾਉਣਾ, ਜਾਂ Qianfan ਮਾਡਲ ਵਿਕਾਸ ਪਲੇਟਫਾਰਮ ਜਾਂ ਹੋਰ ਵਿਕਰੇਤਾਵਾਂ ਵਰਗੇ ਪਲੇਟਫਾਰਮ-ਅਧਾਰਤ ਹੱਲਾਂ ਦੀ ਵਰਤੋਂ ਕਰਨਾ। Zhaopin ਵਿਖੇ ਇੱਕ ਏਆਈ ਐਪਲੀਕੇਸ਼ਨ ਮਾਹਰ Yao Sijia ਨੇ ਕਿਹਾ ਕਿ ਹਾਲਾਂਕਿ Zhaopin ਦਾ ਆਪਣਾ ਸਿਖਲਾਈ ਫਰੇਮਵਰਕ ਹੈ, ਉਹਨਾਂ ਨੇ ਤਿੰਨ ਮੁੱਖ ਵਿਚਾਰਾਂ ਦੇ ਕਾਰਨ ਮਾਡਲ ਡਿਸਟੀਲੇਸ਼ਨ ਲਈ Qianfan ਮਾਡਲ ਵਿਕਾਸ ਪਲੇਟਫਾਰਮ ਦੀ ਚੋਣ ਕੀਤੀ:

  • ਵਿਆਪਕ ਸਹਾਇਤਾ: Qianfan ਮਾਡਲ ਵਿਕਾਸ ਪਲੇਟਫਾਰਮ ਮਾਡਲ ਡਿਸਟੀਲੇਸ਼ਨ ਲਈ ਉਦਯੋਗ ਦੀ ਮੋਹਰੀ ਸਹਾਇਤਾ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ, ਡਿਸਟੀਲੇਸ਼ਨ ਦ੍ਰਿਸ਼ਾਂ ਦੇ ਆਲੇ ਦੁਆਲੇ ਪੂਰੀ ਤਕਨੀਕੀ ਚੇਨ ਨੂੰ ਡੂੰਘਾਈ ਨਾਲ ਅਨੁਕੂਲ ਬਣਾਉਂਦਾ ਹੈ।
  • ਲਾਗਤ ਕੰਟਰੋਲ: ਸੁਤੰਤਰ ਤੌਰ ‘ਤੇ ਹਾਰਡਵੇਅਰ ਖਰੀਦਣ ਅਤੇ ਰੱਖ-ਰਖਾਅ ਕਰਨ ਦੇ ਮੁਕਾਬਲੇ, Qianfan ਮਾਡਲ ਵਿਕਾਸ ਪਲੇਟਫਾਰਮ ਲਾਗਤ ਕੰਟਰੋਲ ਅਤੇ ਵਧੇਰੇ ਲਚਕਦਾਰ ਸਰੋਤ ਵੰਡ ਵਿੱਚ ਮਹੱਤਵਪੂਰਨ ਫਾਇਦੇ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ।
  • ਕਾਰੋਬਾਰੀ ਦ੍ਰਿਸ਼ਾਂ ਦੀ ਡੂੰਘੀ ਸਮਝ: Baidu ਦੀ ਪੇਸ਼ੇਵਰ ਹੱਲ ਟੀਮ ਭਰਤੀ ਡੋਮੇਨ ਵਿੱਚ ‘ਸਟੀਕ ਮੈਚਿੰਗ’ ਅਤੇ ‘ਉੱਚ-ਸਮਕਾਲੀ ਜਵਾਬ’ ਵਰਗੀਆਂ ਮੁੱਖ ਲੋੜਾਂ ਨੂੰ ਡੂੰਘਾਈ ਨਾਲ ਸਮਝਦੀ ਹੈ ਅਤੇ ਹੱਲ ਖੋਜਣ ਲਈ ਕੰਪਨੀਆਂ ਨਾਲ ਸਹਿਯੋਗ ਕਰਦੀ ਹੈ।

Yao Sijia ਨੇ ਅੱਗੇ ਕਿਹਾ ਕਿ Zhaopin AI+ ਭਰਤੀ ਦ੍ਰਿਸ਼ਾਂ ਵਿੱਚ ਮੋਹਰੀ ਬਣਨਾ ਜਾਰੀ ਰੱਖੇਗਾ, ਮਾਡਲ ਪ੍ਰਦਰਸ਼ਨ ਨੂੰ ਹੋਰ ਬਿਹਤਰ ਬਣਾਉਣ ਲਈ Qianfan ਦੀ ਰੀਇਨਫੋਰਸਮੈਂਟ ਲਰਨਿੰਗ ਫਾਈਨ-ਟਿਊਨਿੰਗ (ਆਰਐਫਟੀ) ਤਕਨਾਲੋਜੀ ਦੀ ਵਰਤੋਂ ਕਰੇਗਾ। ਉਹ ਇਹ ਪਤਾ ਲਗਾਉਣ ਦੀ ਯੋਜਨਾ ਬਣਾ ਰਹੇ ਹਨ ਕਿ ਕੀ ਅਧਿਆਪਕ ਮਾਡਲ ਨੂੰ ਹੋਰ ਵਧਾਇਆ ਜਾ ਸਕਦਾ ਹੈ ਅਤੇ ਕੀ ਬਿਹਤਰ ਇਨਾਮ ਵਿਧੀ ਪਹਿਲਾਂ ਤੋਂ ਹੀ ਡਿਸਟਿਲ ਕੀਤੇ ਵਿਦਿਆਰਥੀ ਮਾਡਲਾਂ ਨੂੰ ਸ਼ੁੱਧਤਾ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਣ ਲਈ ਅਨੁਕੂਲ ਬਣਾ ਸਕਦੀ ਹੈ। Qianfan ਚੀਨ ਵਿੱਚ ਆਰਐਫਟੀ ਅਤੇ ਜੀਆਰਪੀਓ ਵਰਗੀਆਂ ਮੋਹਰੀ ਰੀਇਨਫੋਰਸਮੈਂਟ ਲਰਨਿੰਗ ਵਿਧੀਆਂ ਨੂੰ ਉਤਪਾਦ ਬਣਾਉਣ ਵਾਲਾ ਪਹਿਲਾ ਪਲੇਟਫਾਰਮ ਹੈ। ਇਹਨਾਂ ਅਤਿ ਆਧੁਨਿਕ ਰੀਇਨਫੋਰਸਮੈਂਟ ਲਰਨਿੰਗ ਵਿਧੀਆਂ ਨੂੰ ਲਾਗੂ ਕਰਨ ਯੋਗ ਹੱਲਾਂ ਵਿੱਚ ਬਦਲ ਕੇ, Qianfan Zhaopin ਵਰਗੀਆਂ ਕੰਪਨੀਆਂ ਨੂੰ ਮਾਡਲ ਪ੍ਰਦਰਸ਼ਨ ਨੂੰ ਅਨੁਕੂਲ ਬਣਾਉਣ ਲਈ ਵਧੇਰੇ ਸੰਭਾਵਨਾਵਾਂ ਪੇਸ਼ ਕਰਦਾ ਹੈ।

ਹਾਲਾਂਕਿ, ਮਾਡਲ ਡਿਸਟੀਲੇਸ਼ਨ ਸਿਰਫ਼ ਇੱਕ ਸਿੰਗਲ ਮਾਡਲ ਦੀ ਕਾਰਗੁਜ਼ਾਰੀ ਨੂੰ ਅਨੁਕੂਲ ਬਣਾਉਂਦਾ ਹੈ। ਗੁੰਝਲਦਾਰ ਕਾਰੋਬਾਰੀ ਦ੍ਰਿਸ਼ਾਂ ਵਿੱਚ, ਦ੍ਰਿਸ਼ਾਂ ਨਾਲ ਵਿਭਿੰਨ ਏਆਈ ਸਮਰੱਥਾਵਾਂ ਨੂੰ ਸਟੀਕ ਢੰਗ ਨਾਲ ਮੈਚ ਕਰਨਾ ਜ਼ਰੂਰੀ ਹੈ।

ਇੱਕ ਸਮਾਰਟਫੋਨ ‘ਤੇ ਵਿਚਾਰ ਕਰੋ। ਕਾਲ ਅਸਿਸਟੈਂਟ ਵਰਗੇ ਇਰਾਦੇ ਦੀ ਪਛਾਣ ਕਰਨ ਵਾਲੇ ਦ੍ਰਿਸ਼ਾਂ ਵਿੱਚ, ਆਮ ਤੌਰ ‘ਤੇ ਉਪਭੋਗਤਾ ਮੁੱਦਿਆਂ ਦੀ ਤੁਰੰਤ ਪਛਾਣ ਕਰਨ ਲਈ ਹਲਕੇ ਮਾਡਲਾਂ ਦੀ ਵਰਤੋਂ ਕੀਤੀ ਜਾਂਦੀ ਹੈ। ਆਮ ਗਿਆਨ ਸਵਾਲ-ਜਵਾਬ ਦ੍ਰਿਸ਼ਾਂ ਜਿਵੇਂ ਕਿ ਮੌਸਮ ਦੇ ਸਵਾਲਾਂ ਅਤੇ ਖਬਰਾਂ ਦੀ ਪ੍ਰਾਪਤੀ ਲਈ, ਆਮ ਤੌਰ ‘ਤੇ ਸਟੀਕ ਅਤੇ ਜਾਣਕਾਰੀ ਭਰਪੂਰ ਜਵਾਬ ਪ੍ਰਦਾਨ ਕਰਨ ਲਈ ਦਰਮਿਆਨੇ ਆਕਾਰ ਦੇ ਮਾਡਲਾਂ ਦੀ ਵਰਤੋਂ ਕੀਤੀ ਜਾਂਦੀ ਹੈ। ਡਾਟਾ ਵਿਸ਼ਲੇਸ਼ਣ ਅਤੇ ਤਰਕ ਦੇਣ ਵਾਲੇ ਦ੍ਰਿਸ਼ਾਂ ਵਿੱਚ ਜਿਨ੍ਹਾਂ ਲਈ ਡੂੰਘੀ ਸੋਚ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ, ਆਮ ਤੌਰ ‘ਤੇ ਵੱਡੇ ਮਾਡਲਾਂ ਦੀ ਵਰਤੋਂ ਕੀਤੀ ਜਾਂਦੀ ਹੈ।

ਇਸਦਾ ਮਤਲਬ ਹੈ ਕਿ ਇੱਕ ਸਮਾਰਟਫੋਨ ਨੂੰ ਵੱਖ-ਵੱਖ ਉਪਭੋਗਤਾ ਮੰਗ ਦ੍ਰਿਸ਼ਾਂ ਵਿੱਚ ਕਈ ਐਲਐਲਐਮਜ਼ ਨੂੰ ਲਚਕਦਾਰ ਢੰਗ ਨਾਲ ਕਾਲ ਕਰਨ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ। ਫੋਨ ਨਿਰਮਾਤਾਵਾਂ ਲਈ, ਇਹ ਉੱਚ ਮਾਡਲ ਚੋਣ ਲਾਗਤਾਂ ਅਤੇ ਵੱਖ-ਵੱਖ ਮਾਡਲ ਇੰਟਰਫੇਸ ਪ੍ਰੋਟੋਕੋਲਾਂ ਦੇ ਕਾਰਨ ਗੁੰਝਲਦਾਰ ਕਾਲਿੰਗ ਪ੍ਰਕਿਰਿਆਵਾਂ ਵਰਗੀਆਂ ਚੁਣੌਤੀਆਂ ਪੇਸ਼ ਕਰਦਾ ਹੈ।

ਇਹਨਾਂ ਉਦਯੋਗ ਦਰਦ ਬਿੰਦੂਆਂ ਨੂੰ ਹੱਲ ਕਰਨ ਲਈ, Qianfan ਮਾਡਲ ਵਿਕਾਸ ਪਲੇਟਫਾਰਮ ਨੇ ਮਾਡਲ ਰੂਟਿੰਗ ਇੰਟਰਫੇਸ ਨੂੰ ਉਤਪਾਦ ਬਣਾਇਆ। ਅਸਲੀ ਫੈਕਟਰੀ ਮਾਡਲਾਂ ਦੀ ਸਿੱਧੀ ਵਰਤੋਂ ਦੇ ਮੁਕਾਬਲੇ, ਇਹ ਕਸਟਮ ਵਿਕਾਸ ਅਤੇ ਆਊਟ-ਆਫ-ਦ-ਬਾਕਸ ਏਪੀਆਈ ਕਾਲਿੰਗ ਉਤਪਾਦ ਸਮਰੱਥਾਵਾਂ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ, ਕੰਪਨੀਆਂ ਨੂੰ ਇੰਜੀਨੀਅਰਿੰਗ ਕੰਮ ਦੇ ਬੋਝ ਅਤੇ ਵਿਕਾਸ ਦੇ ਸਮੇਂ ਨੂੰ ਬਚਾਉਣ ਦੇ ਨਾਲ-ਨਾਲ ਲਾਗਤਾਂ ਨੂੰ ਘਟਾਉਣ ਵਿੱਚ ਮਦਦ ਕਰਦਾ ਹੈ। ਇਸ ਤੋਂ ਇਲਾਵਾ, Qianfan ਮਾਡਲ ਵਿਕਾਸ ਪਲੇਟਫਾਰਮ ਵੱਡੇ ਪੱਧਰ ਦੇ ਉਪਭੋਗਤਾਵਾਂ ਲਈ ਲਚਕਦਾਰ ਕਾਲਿੰਗ ਦਾ ਸਮਰਥਨ ਕਰਦਾ ਹੈ, ਉੱਚ-ਆਵਿਰਤੀ ਅਤੇ ਉੱਚ-ਸਮਕਾਲੀ ਕਾਲਿੰਗ ਮੰਗਾਂ ਦੇ ਅਧੀਨ ਵੀ ਗਤੀ ਅਤੇ ਸਥਿਰਤਾ ਨੂੰ ਯਕੀਨੀ ਬਣਾਉਂਦਾ ਹੈ।

ਮਾਡਲ ਪੱਧਰ ‘ਤੇ, ਮਾਡਲ ਡਿਸਟੀਲੇਸ਼ਨ ਅਤੇ ਮਲਟੀ-ਮਾਡਲ ਕਾਲਿੰਗ ਵਰਗੀਆਂ ਤਕਨੀਕੀ ਸਮਰੱਥਾਵਾਂ ਵਧ ਤੋਂ ਵਧ ਕੰਪਨੀਆਂ ਨੂੰ ਸਰੋਤ ਵੰਡ ਨੂੰ ਅਨੁਕੂਲ ਬਣਾਉਣ ਵਿੱਚ ਮਦਦ ਕਰ ਰਹੀਆਂ ਹਨ, ਜਿਸ ਨਾਲ ਏਆਈ ਸਮਰੱਥਾਵਾਂ ਕਾਰੋਬਾਰੀ ਦ੍ਰਿਸ਼ਾਂ ਨਾਲ ਸਟੀਕ ਢੰਗ ਨਾਲ ਮੈਚ ਹੋ ਸਕਦੀਆਂ ਹਨ ਜਦੋਂ ਕਿ ਲਾਗਤਾਂ ਨੂੰ ਘਟਾਉਂਦੀਆਂ ਹਨ। ਐਪਲੀਕੇਸ਼ਨ ਪੱਧਰ ‘ਤੇ, ਐਮਸੀਪੀ ਅਤੇ ਏ2ਏ, ਜਿਨ੍ਹਾਂ ਨੇ ਉਦਯੋਗ ਦਾ ਮਹੱਤਵਪੂਰਨ ਧਿਆਨ ਖਿੱਚਿਆ ਹੈ, ਏਆਈ ਅਜ਼ਮਾਇਸ਼ ਅਤੇ ਗਲਤੀ ਦੀਆਂ ਲਾਗਤਾਂ ਨੂੰ ਹੋਰ ਘਟਾਉਂਦੇ ਹਨ, ਕੰਪਨੀਆਂ ਨੂੰ ਐਪਲੀਕੇਸ਼ਨ ਸਹਿਯੋਗ ਪੈਰਾਡਾਈਮ ਨੂੰ ਅਨੁਕੂਲ ਬਣਾਉਣ ਵਿੱਚ ਮਦਦ ਕਰਦੇ ਹਨ, ਅਤੇ ਰਵਾਇਤੀ ਏਜੰਟ ਵਿਕਾਸ ਵਿੱਚ ਅਕੁਸ਼ਲ ‘ਪਹੀਏ ਦੀ ਮੁੜ ਖੋਜ’ ਮਾਡਲ ਨੂੰ ਬਦਲਦੇ ਹਨ।

ਮਾਡਲਾਂ ਤੋਂ ਲੈ ਕੇ ਐਪਲੀਕੇਸ਼ਨਾਂ ਤੱਕ ਇੱਕ ‘ਕੰਬੀਨੇਸ਼ਨ ਪੰਚ’ ਐਲਐਲਐਮਜ਼ ਨੂੰ ‘ਆਰਓਆਈ ਦੁਬਿਧਾ’ ਨੂੰ ਦੂਰ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰਨ ਦਾ ਸੰਪੂਰਨ ਜਵਾਬ ਹੈ।

ਬੰਦ ਤੋਂ ਖੁੱਲ੍ਹੇ: ਏਆਈ ਪ੍ਰਯੋਗ ਲਈ ਰੁਕਾਵਟ ਨੂੰ ਘੱਟ ਕਰਨਾ

2023 ਤੋਂ ਬਾਅਦ, ਏਆਈ ਐਪਲੀਕੇਸ਼ਨ ਲਾਗੂਕਰਨ ਲਈ ਮੁੱਖ ਸ਼ਬਦ ਹੌਲੀ-ਹੌਲੀ ਏਜੰਟ ਵਿੱਚ ਬਦਲ ਗਿਆ ਹੈ। 2024 ਤੱਕ, ਲਗਭਗ ਸਾਰੀਆਂ ਕੰਪਨੀਆਂ ਏਜੰਟ ਐਪਲੀਕੇਸ਼ਨਾਂ ਅਤੇ ਵਿਕਾਸ ‘ਤੇ ਚਰਚਾ ਕਰ ਰਹੀਆਂ ਹਨ। ਹਾਲਾਂਕਿ, ਉਸ ਸਮੇਂ ਏਜੰਟਾਂ ਵਿੱਚ ਸੱਚੀ ਯੋਜਨਾਬੰਦੀ ਸਮਰੱਥਾਵਾਂ ਦੀ ਘਾਟ ਸੀ ਅਤੇ ਮੁੱਖ ਤੌਰ ‘ਤੇ ਵਰਕਫਲੋ ਦ੍ਰਿਸ਼ਟੀਕੋਣਾਂ ‘ਤੇ ਅਧਾਰਤ ਸਨ, ਮਾਹਰ-ਅਧਾਰਤ ਨਿਯਮਾਂ ਦੁਆਰਾ ਭਾਗਾਂ ਨੂੰ ਸਟੀਚਿੰਗ ਜਾਂ ਪ੍ਰਕਿਰਿਆ ਕਰਨ ਦੁਆਰਾ ਐਲਐਲਐਮਜ਼ ਨੂੰ ਬੁਨਿਆਦੀ ਐਪਲੀਕੇਸ਼ਨਾਂ ਨਾਲ ਜੋੜਦੇ ਸਨ।

ਐਮਸੀਪੀ ਅਤੇ ਏ2ਏ ਪ੍ਰੋਟੋਕੋਲਾਂ ਦੇ ਹਾਲ ਹੀ ਦੇ ਵਾਧੇ ਦੇ ਨਾਲ, 2025 ਅਸਲ ‘ਏਜੰਟ ਈਅਰ ਜ਼ੀਰੋ’ ਬਣ ਗਿਆ ਹੈ। ਖਾਸ ਤੌਰ ‘ਤੇ, ਏਆਈ ਖੇਤਰ ‘ਤੇ ਐਮਸੀਪੀ ਦਾ ਪ੍ਰਭਾਵ ਇੰਟਰਨੈੱਟ ‘ਤੇ ਟੀਸੀਪੀ/ਆਈਪੀ ਪ੍ਰੋਟੋਕੋਲ ਦੇ ਬਰਾਬਰ ਹੈ।

Biyao Technology ਦੇ ਸੀਈਓ Zhou Ze’an ਨੇ InfoQ ਨਾਲ ਇੱਕ ਇੰਟਰਵਿਊ ਵਿੱਚ ਕਿਹਾ ਕਿ AI ਖੇਤਰ ਲਈ MCP ਦਾ ਮੁੱਖ ਮੁੱਲ ਤਿੰਨ ਪਹਿਲੂਆਂ ਵਿੱਚ ਪ੍ਰਤੀਬਿੰਬਤ ਹੁੰਦਾ ਹੈ:

  • ਐਲਐਲਐਮ ਟੂਲ ਕਾਲਿੰਗ ਦਾ ਮਿਆਰੀਕਰਨ: ਅਤੀਤ ਵਿੱਚ, ਹਰੇਕ ਕੰਪਨੀ ਦੀ ਆਪਣੀ ਫੰਕਸ਼ਨ ਕਾਲ ਲਾਗੂਕਰਨ ਸੀ, ਉਹਨਾਂ ਵਿਚਕਾਰ ਮਹੱਤਵਪੂਰਨ ਅੰਤਰ ਸਨ। MCP ਇੱਕ ਏਕੀਕ੍ਰਿਤ ਪਹੁੰਚ ਮਿਆਰ ਸਥਾਪਤ ਕਰਦਾ ਹੈ, ਕਲਾਇੰਟਾਂ ਅਤੇ ਸਰਵਰਾਂ ਵਿਚਕਾਰ ਐਪਲੀਕੇਸ਼ਨ ਸ਼ਡਿਊਲਿੰਗ ਸਕੀਮਾਂ ਦੇ ਅਸਲ ਮਿਆਰੀਕਰਨ ਨੂੰ ਸਮਰੱਥ ਬਣਾਉਂਦਾ ਹੈ। ਇਸ ਤੋਂ ਇਲਾਵਾ, MCP ਨਾ ਸਿਰਫ਼ ਫੰਕਸ਼ਨ ਕਾਲ ਦਾ ਸਮਰਥਨ ਕਰਨ ਵਾਲੇ LLM ਵਿਚਕਾਰ ਪਰਸਪਰ ਪ੍ਰਭਾਵ ਨੂੰ ਸਮਰੱਥ ਬਣਾਉਂਦਾ ਹੈ ਬਲਕਿ LLM ਨਾਲ ਵੀ ਜੋ ਇਸ ਵਿਸ਼ੇਸ਼ਤਾ ਨੂੰ ਨਹੀਂ ਰੱਖਦੇ ਹਨ।
  • ਟੂਲ ਸਹਿਯੋਗ ਦੀਆਂ ਚੁਣੌਤੀਆਂ ਨੂੰ ਹੱਲ ਕਰਨਾ: MCP ਪ੍ਰੋਟੋਕੋਲ ਦਾ ਏਕੀਕ੍ਰਿਤ ਮਿਆਰ ਏਜੰਟ ਸੇਵਾਵਾਂ ਦੀ ਉਸਾਰੀ ਨੂੰ ਹੋਰ ਵਿਭਿੰਨ ਬਣਾਉਂਦਾ ਹੈ। ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਨਾ ਸਿਰਫ਼ ਆਪਣੇ ਏਜੰਟਾਂ ਅਤੇ ਐਮਸੀਪੀ ਸੇਵਾਵਾਂ ‘ਤੇ ਵਿਚਾਰ ਕਰਨ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ ਬਲਕਿ ਇਹ ਵੀ ਕਿ ਵਧੇਰੇ ਸ਼ਕਤੀਸ਼ਾਲੀ ਏਜੰਟ ਫੰਕਸ਼ਨਾਂ ਨੂੰ ਪ੍ਰਾਪਤ ਕਰਨ ਲਈ ਬਾਹਰੀ ਸਮਰੱਥਾਵਾਂ ਨੂੰ ਕਿਵੇਂ ਜੋੜਨਾ ਹੈ।
  • LLM ਦੁਆਰਾ ਪੂਰੇ ਸੰਦਰਭ ਨੂੰ ਨਿਯੰਤਰਿਤ ਕਰਨਾ, ਨਤੀਜੇ ਵਜੋਂ ਵਧੇਰੇ ਉਪਭੋਗਤਾ-ਅਨੁਕੂਲ ਪਰਸਪਰ ਪ੍ਰਭਾਵ: ਪ੍ਰਕਿਰਿਆਵਾਂ ਬਣਾਉਣ ਵੇਲੇ, ਇਹ ਉਹਨਾਂ ਗੁੰਝਲਦਾਰ ਕਾਰਜਾਂ ਨੂੰ ਹੱਲ ਕਰਨ ਲਈ ਡਾਟਾ ਸਰੋਤਾਂ ਦੀ ਇੱਕ ਵਿਸ਼ਾਲ ਸ਼੍ਰੇਣੀ ਦੀ ਵਰਤੋਂ ਕਰ ਸਕਦਾ ਹੈ ਜੋ ਪਹਿਲਾਂ ਅਸੰਭਵ ਸਨ।

“ਆਮ ਤੌਰ ‘ਤੇ, MCP ਪ੍ਰੋਟੋਕੋਲ ਕੰਪਨੀਆਂ ਲਈ ਏਆਈ ਤਕਨਾਲੋਜੀ ਨੂੰ ਅਪਣਾਉਣ ਲਈ ਰੁਕਾਵਟ ਨੂੰ ਮਹੱਤਵਪੂਰਨ ਤੌਰ ‘ਤੇ ਘਟਾਉਂਦਾ ਹੈ। ਅਤੀਤ ਵਿੱਚ, ਏਜੰਟਾਂ ਤੱਕ ਪਹੁੰਚ ਕਰਨ ਲਈ ਤਕਨੀਕੀ ਏਕੀਕਰਨ ਪ੍ਰਕਿਰਿਆ ਗੁੰਝਲਦਾਰ ਸੀ। ਹੁਣ, ਕੰਪਨੀਆਂ ਨੂੰ ਗੁੰਝਲਦਾਰ ਤਕਨੀਕੀ ਲਾਗੂਕਰਨ ਦੇ ਵੇਰਵਿਆਂ ਨੂੰ ਡੂੰਘਾਈ ਨਾਲ ਸਮਝਣ ਦੀ ਲੋੜ ਨਹੀਂ ਹੈ ਬਲਕਿ ਸਿਰਫ਼ ਆਪਣੀਆਂ ਕਾਰੋਬਾਰੀ ਲੋੜਾਂ ਨੂੰ ਸਪੱਸ਼ਟ ਕਰਨ ਦੀ ਲੋੜ ਹੈ,” Zhou Ze’an ਨੇ ਕਿਹਾ। Biyao Technology ਨੇ ਆਪਣੇ ਸਵੈ-ਵਿਕਸਤ ਮਨੁੱਖੀ ਵਸੀਲਿਆਂ ਦੇ ਉਦਯੋਗਿਕ ਲੰਬਕਾਰੀ LLM ‘Bole’ ਦੀ ਦਸਤਾਵੇਜ਼ ਪ੍ਰੋਸੈਸਿੰਗ ਸਮਰੱਥਾਵਾਂ ਨੂੰ MCP ਪ੍ਰੋਟੋਕੋਲ ਦੁਆਰਾ ਪੂਰੀ ਤਰ੍ਹਾਂ ਖੋਲ੍ਹ ਦਿੱਤਾ ਹੈ, ਜਿਸ ਵਿੱਚ ਇਕਰਾਰਨਾਮੇ, ਰੈਜ਼ਿਊਮੇ ਅਤੇ PPT ਸ਼ਾਮਲ ਹਨ, ਅਤੇ Qianfan ਐਪਲੀਕੇਸ਼ਨ ਵਿਕਾਸ ਪਲੇਟਫਾਰਮ ‘ਤੇ MCP ਕੰਪੋਨੈਂਟ ਲਾਂਚ ਕਰਨ ਵਾਲੇ ਪਹਿਲੇ ਐਂਟਰਪ੍ਰਾਈਜ਼ ਡਿਵੈਲਪਰਾਂ ਵਿੱਚੋਂ ਇੱਕ ਬਣ ਗਿਆ ਹੈ। ਵਰਤਮਾਨ ਵਿੱਚ, ਕੋਈ ਵੀ ਐਂਟਰਪ੍ਰਾਈਜ਼ ਜਾਂ ਵਿਅਕਤੀਗਤ ਡਿਵੈਲਪਰ Qianfan ਪਲੇਟਫਾਰਮ ‘ਤੇ ਇਸਦੀਆਂ ਪੇਸ਼ੇਵਰ ਸਮਰੱਥਾਵਾਂ ਨੂੰ ਸਿੱਧਾ ਕਾਲ ਕਰ ਸਕਦਾ ਹੈ।

“Baidu ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਸਰਗਰਮੀਨਾਲ ਅਤੇ ਵਿਆਪਕ ਤੌਰ ‘ਤੇ MCP ਨੂੰ ਗਲੇ ਲਗਾਉਣ ਵਿੱਚ ਮਦਦ ਕਰੇਗਾ।” 25 ਅਪ੍ਰੈਲ ਨੂੰ ਆਯੋਜਿਤ Create2025 Baidu AI ਡਿਵੈਲਪਰ ਕਾਨਫਰੰਸ ਵਿੱਚ, Qianfan ਪਲੇਟਫਾਰਮ ਨੇ ਅਧਿਕਾਰਤ ਤੌਰ ‘ਤੇ ਐਂਟਰਪ੍ਰਾਈਜ਼-ਪੱਧਰ ਦੀ MCP ਸੇਵਾਵਾਂ ਲਾਂਚ ਕੀਤੀਆਂ। Baidu ਦੇ ਸੰਸਥਾਪਕ Li Yanhong ਨੇ ਏਜੰਟ ਬਣਾਉਣ ਵੇਲੇ ਡਿਵੈਲਪਰਾਂ ਨੂੰ Baidu AI ਖੋਜ, ਨਕਸ਼ੇ ਅਤੇ Wenku ਸਮੇਤ 1000 MCP ਸਰਵਰਾਂ ਤੱਕ ਲਚਕਦਾਰ ਢੰਗ ਨਾਲ ਪਹੁੰਚ ਕਰਨ ਦੀ ਇਜਾਜ਼ਤ ਦਿੰਦੇ ਹੋਏ, Qianfan ਪਲੇਟਫਾਰਮ ਦੁਆਰਾ MCP ਨੂੰ ਗਲੇ ਲਗਾਉਣ ਦੇ ਮਾਮਲੇ ਦਾ ਪ੍ਰਦਰਸ਼ਨ ਕੀਤਾ। ਇਸ ਤੋਂ ਇਲਾਵਾ, Qianfan ਨੇ MCP ਸਰਵਰ ਬਣਾਉਣ ਲਈ ਇੱਕ ਘੱਟ-ਕੋਡ ਟੂਲ ਲਾਂਚ ਕੀਤਾ, ਜਿਸ ਨਾਲ ਡਿਵੈਲਪਰ ਆਸਾਨੀ ਨਾਲ Qianfan ‘ਤੇ ਆਪਣੇ MCP ਸਰਵਰ ਵਿਕਸਤ ਕਰ ਸਕਦੇ ਹਨ ਅਤੇ ਉਹਨਾਂ ਨੂੰ ਇੱਕ ਕਲਿੱਕ ਨਾਲ Qianfan MCP ਸਕੁਏਅਰ ‘ਤੇ ਪ੍ਰਕਾਸ਼ਿਤ ਕਰ ਸਕਦੇ ਹਨ। ਇਹਨਾਂ MCP ਸਰਵਰਾਂ ਨੂੰ Baidu ਖੋਜ ਦੁਆਰਾ ਤੁਰੰਤ ਸੂਚੀਬੱਧ ਵੀ ਕੀਤਾ ਜਾਵੇਗਾ, ਜਿਸ ਨਾਲ ਉਹਨਾਂ ਨੂੰ ਵਧੇਰੇ ਡਿਵੈਲਪਰਾਂ ਦੁਆਰਾ ਖੋਜਣ ਅਤੇ ਵਰਤਣ ਦੀ ਇਜਾਜ਼ਤ ਦਿੱਤੀ ਜਾਵੇਗੀ।

ਦਰਅਸਲ, Qianfan MCP ਪ੍ਰੋਟੋਕੋਲ ਦੇ ਵਾਧੇ ਤੋਂ ਪਹਿਲਾਂ AI ਲਾਗੂਕਰਨ ਦੀ ਆਖਰੀ ਮੀਲ ਸਮੱਸਿਆ ਨੂੰ ਲਗਾਤਾਰ ਹੱਲ ਕਰ ਰਿਹਾ ਹੈ, ਕੰਪਨੀਆਂ ਨੂੰ ਕੁਸ਼ਲਤਾ ਨਾਲ ਅਤੇ ਘੱਟ ਰੁਕਾਵਟਾਂ ਨਾਲ AI ਤਕਨਾਲੋਜੀ ਦੇ ਲਾਭਾਂ ਦਾ ਆਨੰਦ ਲੈਣ ਵਿੱਚ ਮਦਦ ਕਰ ਰਿਹਾ ਹੈ ਅਤੇ ਕਈ ਉਦਯੋਗਾਂ ਲਈ ਪਰਿਪੱਕ ਹੱਲ ਪ੍ਰਦਾਨ ਕਰ ਰਿਹਾ ਹੈ।

ਉਦਾਹਰਨ ਲਈ, ਸਮਾਰਟ ਹੋਮ ਉਦਯੋਗ ਵਿੱਚ, ਕੰਪਨੀਆਂ ਆਮ ਤੌਰ ‘ਤੇ ਇੱਕ ਆਮ ਸਮੱਸਿਆ ਦਾ ਸਾਹਮਣਾ ਕਰਦੀਆਂ ਹਨ: ਵੱਡੇ ਉਤਪਾਦ ਮਾਡਲਾਂ ਲਈ ਸਟੀਕ ਬੁੱਧੀਮਾਨ ਸੇਵਾਵਾਂ ਕਿਵੇਂ ਪ੍ਰਦਾਨ ਕੀਤੀਆਂ ਜਾਣ? LLM ਦੇ ਤੇਜ਼ ਲਾਗੂਕਰਨ ਦੇ ਨਾਲ, ਵਧ ਤੋਂ ਵਧ ਕੰਪਨੀਆਂ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਸਟੀਕ ਅਤੇ ਵਿਅਕਤੀਗਤ ਜਵਾਬ ਤੇਜ਼ੀ ਨਾਲ ਪ੍ਰਦਾਨ ਕਰਨ ਲਈ ਏਜੰਟਾਂ ਦੀ ਵਰਤੋਂ ਕਰ ਰਹੀਆਂ ਹਨ। ਹਾਲਾਂਕਿ, ਇਹ ਇੱਕ ਨਵੀਂ ਚੁਣੌਤੀ ਵੀ ਲਿਆਉਂਦਾ ਹੈ: ਬਹੁਤ ਸਾਰੇ ਏਜੰਟਾਂ ਨੂੰ ਕਿਵੇਂ ਵਿਕਸਤ ਕਰਨਾ ਅਤੇ ਪ੍ਰਬੰਧਨ ਕਰਨਾ ਹੈ? ਸਮਾਰਟ ਹੋਮ ਬ੍ਰਾਂਡਾਂ ਵਿੱਚ ਆਮ ਤੌਰ ‘ਤੇ ਬਹੁਤ ਸਾਰੀਆਂ ਵੱਖ-ਵੱਖ ਉਤਪਾਦ ਸ਼੍ਰੇਣੀਆਂ ਅਤੇ ਮਾਡਲ ਹੁੰਦੇ ਹਨ। ਹਰੇਕ ਉਤਪਾਦ ਲਈ ਵੱਖਰੇ ਤੌਰ ‘ਤੇ ਇੱਕ ਏਜੰਟ ਬਣਾਉਣ ਨਾਲ ਨਾ ਸਿਰਫ਼ ਉੱਚ ਵਿਕਾਸ ਲਾਗਤਾਂ ਹੋਣਗੀਆਂ ਬਲਕਿ ਬਾਅਦ ਦੇ ਪੜਾਵਾਂ ਵਿੱਚ ਮਹੱਤਵਪੂਰਨ ਪ੍ਰਬੰਧਨ ਅਤੇ ਰੱਖ-ਰਖਾਅ ਦੀਆਂ ਲਾਗਤਾਂ ਵੀ ਹੋਣਗੀਆਂ।

ਉਦਾਹਰਨ ਲਈ, ਇੱਕ ਪ੍ਰਮੁੱਖ ਸਮਾਰਟ ਹੋਮ ਬ੍ਰਾਂਡ ਨੇ ਫਾਈਲ ਨਾਮਾਂ ਨੂੰ ਸੁਤੰਤਰ ਸਲਾਈਸਾਂ ਵਜੋਂ ਮੰਨਣ ਅਤੇ ਫਾਈਲ ਨਾਮ ਸਲਾਈਸ ਜਾਣਕਾਰੀ ਨੂੰ ਹਰੇਕ ਬਾਰੀਕ ਸਲਾਈਸ ਵਿੱਚ ਸ਼ਾਮਲ ਕਰਨ ਲਈ Baidu AI ਕਲਾਉਡ Qianfan ਐਪਲੀਕੇਸ਼ਨ ਵਿਕਾਸ ਪਲੇਟਫਾਰਮ ਦੀ ਵਰਤੋਂ ਕੀਤੀ। ਹਰੇਕ ਉਤਪਾਦ ਲਈ ਵੱਖਰੇ ਤੌਰ ‘ਤੇ ਇੱਕ ਏਜੰਟ ਬਣਾਉਣ ਦੀ ਬਜਾਏ, ਉਹਨਾਂ ਨੂੰ ਸਿਰਫ਼ ਸੰਬੰਧਿਤ ਗਿਆਨ ਅਧਾਰ ਨੂੰ ਛਾਂਟਣ ਅਤੇ ਉਤਪਾਦ ਮਾਡਲ ਨਾਮਾਂ ਨੂੰ ਪਰਿਭਾਸ਼ਿਤ ਕਰਨ ਦੀ ਲੋੜ ਸੀ। ਫਿਰ, ਉਹ ਉਤਪਾਦ ਮਾਡਲਾਂ ਅਤੇ ਗਿਆਨ ਬਿੰਦੂਆਂ ਦੀ ਸਟੀਕ ਮੈਚਿੰਗ ਨੂੰ ਪ੍ਰਾਪਤ ਕਰਨ ਲਈ Qianfan ਪਲੇਟਫਾਰਮ ਦੀ RAG ਫਰੇਮਵਰਕ ਆਟੋਮੈਟਿਕ ਪਾਰਸਿੰਗ ਰਣਨੀਤੀ ਦੀ ਵਰਤੋਂ ਕਰ ਸਕਦੇ ਹਨ।

Qianfan ਐਪਲੀਕੇਸ਼ਨ ਵਿਕਾਸ ਪਲੇਟਫਾਰਮ ਬ੍ਰਾਂਡ ਨੂੰ ਲਗਾਤਾਰ ਵਿਕਸਤ ਹੋ ਰਹੇ ਬੁੱਧੀਮਾਨ ਹੱਬ ਬਣਾਉਣ ਲਈ ਓਪਰੇਸ਼ਨ ਟੂਲਸ ਦਾ ਇੱਕ ਸਮੂਹ ਵੀ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ। ਡਾਟਾ ਬੈਕਫਲੋ ਫੰਕਸ਼ਨ ਦੁਆਰਾ, ਸਾਰੇ ਉਪਭੋਗਤਾ ਪਰਸਪਰ ਪ੍ਰਭਾਵ ਰਿਕਾਰਡਾਂ ਨੂੰ ਅਨੁਕੂਲਤਾ ਸਮੱਗਰੀ ਵਿੱਚ ਬਦਲ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ। ਓਪਰੇਸ਼ਨ ਕਰਮਚਾਰੀ ਅਸਲ ਸਮੇਂ ਵਿੱਚ ਉੱਚ-ਆਵਿਰਤੀ ਸਮੱਸਿਆਵਾਂ ਨੂੰ ਵੇਖ ਸਕਦੇ ਹਨ ਅਤੇ ਤੁਰੰਤ ਅਣਕੱਟੇ ਗਿਆਨ ਬਿੰਦੂਆਂ ‘ਤੇ ਦਖਲ ਦੇ ਸਕਦੇ ਹਨ, ਇੱਕ “ਓਪਰੇਸ਼ਨ - ਫੀਡਬੈਕ - ਅਨੁਕੂਲਤਾ” ਬੰਦ ਲੂਪ ਬਣਾ ਸਕਦੇ ਹਨ। ਇਸ ਤੋਂ ਇਲਾਵਾ, Qianfan ਐਪਲੀਕੇਸ਼ਨ ਵਿਕਾਸ ਪਲੇਟਫਾਰਮ ਅਤੇ Xiaodu AI ਸਹਾਇਕ ਨੇ ਸਾਂਝੇ ਤੌਰ ‘ਤੇ ਇੱਕ ਵੌਇਸ ਪਰਸਪਰ ਪ੍ਰਭਾਵ ਫਰੇਮਵਰਕ ਬਣਾਇਆ। ਇਸ ਫਰੇਮਵਰਕ ‘ਤੇ ਨਿਰਭਰ ਕਰਦੇ ਹੋਏ, ਬ੍ਰਾਂਡ ਹਾਰਡਵੇਅਰ ਨੂੰ ਸਿੱਧੇ ਤੌਰ ‘ਤੇ ਉਪਭੋਗਤਾਵਾਂ ਨਾਲ “ਗੱਲ” ਕਰਨ ਦੇ ਯੋਗ ਬਣਾ ਸਕਦਾ ਹੈ, ਇੱਕ ਵਧੇਰੇ ਕੁਦਰਤੀ, ਕੁਸ਼ਲ ਅਤੇ ਵਿਅਕਤੀਗਤ ਇੰਟਰਐਕਟਿਵ ਅਨੁਭਵ ਪ੍ਰਾਪਤ ਕਰ ਸਕਦਾ ਹੈ।

MCP ਤੋਂ ਏ2ਏ ਤੱਕ, ਖੁੱਲਾਪਣ LLM ਐਪਲੀਕੇਸ਼ਨ ਈਕੋਸਿਸਟਮ ਵਿੱਚ ਇੱਕ ਨਵਾਂ ਮੁੱਖ ਸ਼ਬਦ ਬਣ ਗਿਆ ਹੈ। ਖੁੱਲਾਪਣ ਵੀ Qianfan ਪਲੇਟਫਾਰਮ ਦਾ ਅਸਲੀ ਇਰਾਦਾ ਹੈ। 2023 ਵਿੱਚ ਇਸਦੇ ਪਹਿਲੇ ਦਿਨ ਤੋਂ ਹੀ, Qianfan ਨੇ ਤੀਜੀ-ਧਿਰ LLM ਦੇ ਧਨ ਤੱਕ ਪਹੁੰਚ ਕਰਨ ਲਈ ਸਭ ਤੋਂ ਖੁੱਲਾ ਰੁਖ ਅਪਣਾਇਆ ਹੈ। ਵਰਤਮਾਨ ਵਿੱਚ, Qianfan ਕੋਲ 30 ਤੋਂ ਵੱਧ ਮਾਡਲ ਵਿਕਰੇਤਾਵਾਂ ਦੇ 100 ਤੋਂ ਵੱਧ ਮਾਡਲਾਂ ਤੱਕ ਪਹੁੰਚ ਹੈ, ਜੋ ਕਿ ਟੈਕਸਟ, ਚਿੱਤਰ ਅਤੇ ਡੂੰਘੇ ਤਰਕ ਵਰਗੀਆਂ 11 ਕਿਸਮਾਂ ਦੀਆਂ ਸਮਰੱਥਾਵਾਂ ਨੂੰ ਕਵਰ ਕਰਦੇ ਹਨ, ਜਿਸ ਵਿੱਚ DeepSeek, LLaMA, Tongyi ਅਤੇ Vidu ਵਰਗੇ ਤੀਜੀ-ਧਿਰ ਮਾਡਲ ਸ਼ਾਮਲ ਹਨ। ਇਹ Wenxin LLM ਦੀ ਇੱਕ ਪੂਰੀ ਸ਼੍ਰੇਣੀ ਵੀ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ, ਜਿਸ ਵਿੱਚ ਨਵੇਂ ਜਾਰੀ ਕੀਤੇ ਗਏ ਮੂਲ ਮਲਟੀ-ਮੋਡਲ ਮਾਡਲ Wenxin 4.5 Turbo ਅਤੇ ਡੂੰਘੀ ਸੋਚ ਵਾਲਾ ਮਾਡਲ Wenxin X1 Turbo, ਅਤੇ ਨਾਲ ਹੀ ਪਹਿਲਾਂ ਜਾਰੀ ਕੀਤੇ ਗਏ ਡੂੰਘੀ ਸੋਚ ਵਾਲਾ ਮਾਡਲ Wenxin X1 ਸ਼ਾਮਲ ਹਨ।

ਕੰਪਨੀਆਂ ਲਈ ਜੋ ਤੇਜ਼ੀ ਨਾਲ AI ਤਕਨਾਲੋਜੀ ਨੂੰ ਲਾਗੂ ਕਰਨਾ ਚਾਹੁੰਦੀਆਂ ਹਨ, Baidu AI ਕਲਾਉਡ ਹੌਲੀ-ਹੌਲੀ ਪਹਿਲੀ ਪਸੰਦ ਬਣ ਰਿਹਾ ਹੈ। ਮਾਰਕੀਟ ਡਾਟਾ ਸਭ ਤੋਂ ਵਧੀਆ ਸਬੂਤ ਹੈ। ਵਰਤਮਾਨ ਵਿੱਚ, Qianfan ਪਲੇਟਫਾਰਮ 400,000 ਤੋਂ ਵੱਧ ਗਾਹਕਾਂ ਦੀ ਸੇਵਾ ਕਰਦਾ ਹੈ, ਜਿਸ ਵਿੱਚ ਕੇਂਦਰੀ ਉੱਦਮਾਂ ਵਿੱਚ 60% ਤੋਂ ਵੱਧ ਘੁਸਪੈਠ ਦੀ ਦਰ ਹੈ। ਚੀਨ ਲਾਰਜ ਮਾਡਲ ਬਿਡਿੰਗ ਪ੍ਰੋਜੈਕਟ ਮਾਨੀਟਰਿੰਗ ਐਂਡ ਇਨਸਾਈਟ ਰਿਪੋਰਟ (2025Q1) ਦੇ ਅਨੁਸਾਰ, **Baidu ਨੇ ਪਹਿਲੀ ਤਿਮਾਹੀ ਵਿੱਚ