2. Nvidia
ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਸਿਸਟਮਾਂ ਦੀ ਵੱਧਦੀ ਮੰਗ ਕਾਰਨ ਵੱਡੇ ਭਾਸ਼ਾ ਮਾਡਲ ਡਿਵੈਲਪਰਾਂ ਵੱਲੋਂ ਲਗਾਤਾਰ ਨਿਵੇਸ਼ ਕੀਤਾ ਜਾ ਰਿਹਾ ਹੈ। ਹਾਲਾਂਕਿ, ਇੱਕ ਕੰਪਨੀ ਪਹਿਲਾਂ ਹੀ ਇਸ AI ਕ੍ਰਾਂਤੀ ਦਾ ਫਾਇਦਾ ਉਠਾ ਰਹੀ ਹੈ: Nvidia. ਆਪਣੇ ਸ਼ਕਤੀਸ਼ਾਲੀ ਗ੍ਰਾਫਿਕਸ ਪ੍ਰੋਸੈਸਿੰਗ ਯੂਨਿਟਾਂ (GPUs) ਨਾਲ AI ਦੌੜ ਨੂੰ ਸ਼ੁਰੂ ਕਰਨ ਵਾਲੀ, Nvidia ਹੁਣ ਆਪਣੇ ਨਵੇਂ Blackwell ਪ੍ਰੋਸੈਸਰ ਅਤੇ ਪਲੇਟਫਾਰਮ ਨਾਲ ਮਨੁੱਖੀ-ਪੱਧਰ ਦੀ ਬੁੱਧੀ ਨੂੰ ਹਾਸਲ ਕਰਨ ਵਿੱਚ ਮਦਦ ਕਰਨ ਲਈ ਪੂਰੀ ਤਰ੍ਹਾਂ ਤਿਆਰ ਹੈ।
Blackwell ਆਪਣੇ ਪੁਰਾਣੇ H100 ਤੋਂ ਬਿਹਤਰ ਹੈ, ਜੋ ਆਮ ਮਾਡਲ-ਸਿਖਲਾਈ ਕਾਰਜਾਂ ਲਈ 2.5 ਗੁਣਾ ਜ਼ਿਆਦਾ ਪਾਵਰ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ, ਜਦਕਿ ਕਾਫ਼ੀ ਘੱਟ ਊਰਜਾ ਦੀ ਖਪਤ ਕਰਦਾ ਹੈ। ਵੱਡੇ ਡਾਟਾ ਸੈਂਟਰ ਆਪਰੇਟਰ ਅਤੇ AI ਲੈਬਾਂ, ਜਿਨ੍ਹਾਂ ਵਿੱਚ Google, Meta, Microsoft, OpenAI, Tesla, ਅਤੇ xAI ਵਰਗੀਆਂ ਵੱਡੀਆਂ ਕੰਪਨੀਆਂ ਸ਼ਾਮਲ ਹਨ, ਨੇ ਲੱਖਾਂ Blackwell GPUs ਖਰੀਦਣ ਦਾ ਵਾਅਦਾ ਕੀਤਾ ਹੈ।
ਹਾਲਾਂਕਿ ਚੀਨੀ ਕੰਪਨੀਆਂ ਜਿਵੇਂ ਕਿ DeepSeek ਅਤੇ Alibaba ਦੇ ਹਾਲੀਆ ਮਾਡਲਾਂ ਨੇ ਪੁਰਾਣੇ, ਘੱਟ ਸ਼ਕਤੀਸ਼ਾਲੀ Nvidia GPUs ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਸਮਰੱਥਾਵਾਂ ਦਾ ਪ੍ਰਦਰਸ਼ਨ ਕੀਤਾ ਹੈ, Nvidia ਸਿਰਫ਼ ਆਪਣੀਆਂ ਪ੍ਰਾਪਤੀਆਂ ‘ਤੇ ਆਰਾਮ ਨਹੀਂ ਕਰ ਰਹੀ ਹੈ। ਕੰਪਨੀ ਸਰਗਰਮੀ ਨਾਲ ਵੱਖ-ਵੱਖ ਐਪਲੀਕੇਸ਼ਨਾਂ ਲਈ ਪਲੇਟਫਾਰਮ ਵਿਕਸਤ ਕਰ ਰਹੀ ਹੈ, ਜਿਸ ਵਿੱਚ ਡਰੱਗ ਡਿਸਕਵਰੀ (Clara for Biopharma), ਆਟੋਨੋਮਸ ਵਾਹਨ (Drive AGX), ਵੀਡੀਓ ਉਤਪਾਦਨ (Holoscan) ਅਤੇ ਡਿਜੀਟਲ ਜੁੜਵਾਂ (Omniverse) ਸ਼ਾਮਲ ਹਨ। ਅਸਲ-ਦੁਨੀਆਂ ਦੇ ਵੱਖ-ਵੱਖ ਦ੍ਰਿਸ਼ਾਂ ਵਿੱਚ AI ਦੀ ਤਰੱਕੀ ਨੂੰ ਉਤਸ਼ਾਹਿਤ ਕਰਕੇ, Nvidia ਰਣਨੀਤਕ ਤੌਰ ‘ਤੇ ਆਪਣੇ ਆਪ ਨੂੰ ਲਗਾਤਾਰ ਵਿਕਾਸ ਲਈ ਤਿਆਰ ਕਰ ਰਹੀ ਹੈ, ਭਾਵੇਂ ਭਵਿੱਖ ਦੇ ਮਾਡਲ ਕੰਪਿਊਟੇਸ਼ਨਲ ਪਾਵਰ ‘ਤੇ ਘੱਟ ਨਿਰਭਰ ਹੋਣ।
2. OpenAI
2019 ਤੋਂ, OpenAI ਨੇ ਲਗਾਤਾਰ ਆਪਣੇ ਮਾਡਲਾਂ ਨੂੰ ਸਿਖਲਾਈ ਡੇਟਾ ਅਤੇ ਕੰਪਿਊਟਿੰਗ ਸਰੋਤਾਂ ਦਾ ਵਿਸਤਾਰ ਕਰਕੇ ਵਧਾਇਆ ਹੈ, ਇੱਕ ਰਣਨੀਤੀ ਜਿਸਨੂੰ ਉਦਯੋਗ ਵਿੱਚ ਵਿਆਪਕ ਤੌਰ ‘ਤੇ ਅਪਣਾਇਆ ਗਿਆ ਹੈ। ਹਾਲਾਂਕਿ, ਜਿਵੇਂ ਕਿ ਇਸ ਸਕੇਲਿੰਗ ਪਹੁੰਚ ਤੋਂ ਘੱਟ ਰਿਟਰਨ ਮਿਲਣੇ ਸ਼ੁਰੂ ਹੋਏ, OpenAI ਨੇ AGI ਨੂੰ ਪ੍ਰਾਪਤ ਕਰਨ ਲਈ ਇੱਕ ਨਵੇਂ ਰਸਤੇ ਦੀ ਜ਼ਰੂਰਤ ਨੂੰ ਪਛਾਣਿਆ - ਅਜਿਹੇ ਮਾਡਲ ਜੋ ਜ਼ਿਆਦਾਤਰ ਕੰਮਾਂ ਵਿੱਚ ਮਨੁੱਖੀ ਬੁੱਧੀ ਨੂੰ ਪਾਰ ਕਰਦੇ ਹਨ।
OpenAI ਦਾ ਹੱਲ o1 ਮਾਡਲ ਦੇ ਰੂਪ ਵਿੱਚ ਆਇਆ। ਸਿਰਫ਼ ਪ੍ਰੀ-ਟ੍ਰੇਨਿੰਗ ਦੌਰਾਨ ਸਰੋਤਾਂ ਨੂੰ ਵਧਾਉਣ ‘ਤੇ ਧਿਆਨ ਕੇਂਦਰਿਤ ਕਰਨ ਦੀ ਬਜਾਏ, OpenAI ਨੇ o1 ਨੂੰ ਇਨਫਰੈਂਸ ਦੌਰਾਨ ਵਧੇਰੇ ਸਮਾਂ ਅਤੇ ਕੰਪਿਊਟਿੰਗ ਪਾਵਰ ਨਿਰਧਾਰਤ ਕਰਨ ਲਈ ਤਿਆਰ ਕੀਤਾ, ਉਹ ਪੜਾਅ ਜਿੱਥੇ ਮਾਡਲ ਸਰਗਰਮੀ ਨਾਲ ਤਾਇਨਾਤ ਹੁੰਦਾ ਹੈ ਅਤੇ ਉਪਭੋਗਤਾ ਦੇ ਪ੍ਰੋਂਪਟਾਂ ਦਾ ਜਵਾਬ ਦਿੰਦਾ ਹੈ। ਇਸ ਪ੍ਰਕਿਰਿਆ ਦੇ ਦੌਰਾਨ, o1 ਉਪਭੋਗਤਾ ਅਤੇ ਸੰਬੰਧਿਤ ਡੇਟਾ ਸਰੋਤਾਂ ਦੋਵਾਂ ਤੋਂ ਪ੍ਰਸੰਗਿਕ ਜਾਣਕਾਰੀ ਇਕੱਠੀ ਕਰਦਾ ਹੈ ਅਤੇ ਬਰਕਰਾਰ ਰੱਖਦਾ ਹੈ। ਇਹ ਇੱਕ ਜਵਾਬ ਲਈ ਸਭ ਤੋਂ ਵਧੀਆ ਰਸਤਾ ਨਿਰਧਾਰਤ ਕਰਨ ਲਈ ਇੱਕ ਅਜ਼ਮਾਇਸ਼-ਅਤੇ-ਗਲਤੀ ਵਿਧੀ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ। ਨਤੀਜਾ ਗੁੰਝਲਦਾਰ ਸਵਾਲਾਂ ਦੇ PhD-ਪੱਧਰ ਦੇ ਜਵਾਬਾਂ ਦੀ ਉਤਪਤੀ ਹੈ, ਜਿਸ ਨਾਲ o1 ਪ੍ਰਦਰਸ਼ਨ ਬੈਂਚਮਾਰਕ ਰੈਂਕਿੰਗ ਵਿੱਚ ਸਿਖਰ ‘ਤੇ ਪਹੁੰਚ ਗਿਆ ਹੈ।
OpenAI, ChatGPT Plus ਗਾਹਕਾਂ ਨੂੰ o1 ਦੇ ‘ਪ੍ਰਯੋਗਾਤਮਕ’ ਅਤੇ ‘ਮਿੰਨੀ’ ਸੰਸਕਰਣਾਂ ਦੀ ਪੇਸ਼ਕਸ਼ ਕਰਦਾ ਹੈ। ਇਸ ਤੋਂ ਇਲਾਵਾ, ChatGPT Pro ਨਾਮਕ ਇੱਕ ਪ੍ਰੀਮੀਅਮ ਸੇਵਾ $200 ਪ੍ਰਤੀ ਮਹੀਨਾ ਵਿੱਚ ਪੂਰੇ o1 ਮਾਡਲ ਤੱਕ ਅਸੀਮਤ ਪਹੁੰਚ ਪ੍ਰਦਾਨ ਕਰਦੀ ਹੈ। ਦਸੰਬਰ 2024 ਵਿੱਚ, OpenAI ਨੇ o1 ਦੇ ਉੱਤਰਾਧਿਕਾਰੀ, o3 ਦਾ ਪਰਦਾਫਾਸ਼ ਕੀਤਾ, ਅਤੇ ਫਰਵਰੀ 2025 ਵਿੱਚ, ਭੁਗਤਾਨ ਕਰਨ ਵਾਲੇ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ o3-mini ਤੱਕ ਪਹੁੰਚ ਦਿੱਤੀ, ਜੋ ਕਿ ਵਿਗਿਆਨ, ਗਣਿਤ ਅਤੇ ਕੋਡਿੰਗ ਲਈ ਅਨੁਕੂਲਿਤ ਇੱਕ ਛੋਟਾ, ਤੇਜ਼ ਰੂਪ ਹੈ। OpenAI ਦੇ ਨਵੇਂ ਰੀਜ਼ਨਿੰਗ ਮਾਡਲਾਂ ਦਾ ਸਭ ਤੋਂ ਡੂੰਘਾ ਪ੍ਰਭਾਵ AGI ਦੇ ਰਸਤੇ ‘ਤੇ ਬੁੱਧੀ ਵਿੱਚ ਹੋਰ ਸਫਲਤਾਵਾਂ ਪ੍ਰਾਪਤ ਕਰਨ ਲਈ ਇੱਕ ਵਧੀਆ ਰਸਤੇ ਵਜੋਂ ਇਨਫਰੈਂਸ ਸਮੇਂ ਕੰਪਿਊਟਿੰਗ ਨੂੰ ਵਧਾਉਣ ਦੀ ਪ੍ਰਮਾਣਿਕਤਾ ਹੈ।
2. Google DeepMind
ਅੱਜ ਦੇ ਚੈਟਬੋਟਸ ਲਈ ਰਾਹ ਪੱਧਰਾ ਕਰਨ ਵਾਲੀ ਬੁਨਿਆਦੀ ਖੋਜ 2010 ਦੇ ਅਖੀਰ ਵਿੱਚ Google ਵਿੱਚ ਸ਼ੁਰੂ ਹੋਈ। Google ਨੇ ChatGPT ਦੇ ਉਭਰਨ ਤੋਂ ਬਹੁਤ ਪਹਿਲਾਂ ਇੱਕ ਵੱਡੇ ਭਾਸ਼ਾ ਮਾਡਲ-ਸੰਚਾਲਿਤ ਚੈਟਬੋਟ ਵਿਕਸਤ ਕੀਤਾ ਸੀ। ਹਾਲਾਂਕਿ, ਸੁਰੱਖਿਆ, ਗੋਪਨੀਯਤਾ ਅਤੇ ਕਾਨੂੰਨੀ ਪ੍ਰਭਾਵਾਂ ਸੰਬੰਧੀ ਚਿੰਤਾਵਾਂ ਕਾਰਨ ਕਥਿਤ ਤੌਰ ‘ਤੇ ਇੱਕ ਸਾਵਧਾਨ ਪਹੁੰਚ ਅਪਣਾਈ ਗਈ, ਜਿਸ ਨਾਲ ਇਸਦੀ ਜਨਤਕ ਰਿਲੀਜ਼ ਵਿੱਚ ਦੇਰੀ ਹੋਈ। ਇਸ ਝਿਜਕ ਦੇ ਨਤੀਜੇ ਵਜੋਂ Google ਸ਼ੁਰੂ ਵਿੱਚ ChatGPT ਦੇ ਲਾਂਚ ਦੁਆਰਾ ਸ਼ੁਰੂ ਹੋਈ AI ਦੌੜ ਵਿੱਚ ਪਿੱਛੇ ਰਹਿ ਗਿਆ।
2024 ਵਿੱਚ Google DeepMind ਦੇ Gemini 2.0 ਦੀ ਰਿਲੀਜ਼ ਨੇ Google ਦੇ ਨਿਸ਼ਚਤ ਪੁਨਰ-ਉਥਾਨ ਦਾ ਸੰਕੇਤ ਦਿੱਤਾ। Gemini 2.0 ਪਹਿਲੇ ਜਨਤਕ-ਬਾਜ਼ਾਰ AI ਮਾਡਲ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ ਜੋ ਸੁਭਾਵਿਕ ਤੌਰ ‘ਤੇ ਮਲਟੀਮੋਡਲ ਹੈ, ਜੋ ਟੈਕਸਟ ਵਾਂਗ ਹੀ ਚਿੱਤਰਾਂ, ਵੀਡੀਓ, ਆਡੀਓ ਅਤੇ ਕੰਪਿਊਟਰ ਕੋਡ ਨੂੰ ਪ੍ਰੋਸੈਸ ਕਰਨ ਅਤੇ ਤਿਆਰ ਕਰਨ ਦੇ ਸਮਰੱਥ ਹੈ। ਇਹ ਸਮਰੱਥਾ ਮਾਡਲ ਨੂੰ ਵੀਡੀਓ ਕਲਿੱਪਾਂ, ਜਾਂ ਇੱਥੋਂ ਤੱਕ ਕਿ ਫ਼ੋਨ ਕੈਮਰੇ ਤੋਂ ਲਾਈਵ ਵੀਡੀਓ ਫੀਡਾਂ ਦਾ ਵਿਸ਼ਲੇਸ਼ਣ ਕਰਨ ਅਤੇ ਤਰਕ ਕਰਨ ਦੇ ਯੋਗ ਬਣਾਉਂਦੀ ਹੈ, ਕਮਾਲ ਦੀ ਗਤੀ ਅਤੇ ਸ਼ੁੱਧਤਾ ਨਾਲ।
Gemini ਹੋਰ Google ਸੇਵਾਵਾਂ, ਜਿਵੇਂ ਕਿ Maps ਅਤੇ Search ਨੂੰ ਨਿਯੰਤਰਿਤ ਕਰਨ ਦੀ ਆਪਣੀ ਯੋਗਤਾ ਲਈ ਵੀ ਵੱਖਰਾ ਹੈ। ਇਹ ਏਕੀਕਰਣ Google ਦੇ ਰਣਨੀਤਕ ਫਾਇਦੇ ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ, ਇਸਦੀ AI ਖੋਜ ਨੂੰ ਇਸਦੇ ਸਥਾਪਿਤ ਜਾਣਕਾਰੀ ਅਤੇ ਉਤਪਾਦਕਤਾ ਸਾਧਨਾਂ ਨਾਲ ਜੋੜਦਾ ਹੈ। Gemini ਪਹਿਲੇ AI ਮਾਡਲਾਂ ਵਿੱਚੋਂ ਇੱਕ ਹੈ ਜੋ ਉਪਭੋਗਤਾ ਦੀ ਤਰਫੋਂ ਗੁੰਝਲਦਾਰ ਸਮੱਸਿਆਵਾਂ ਰਾਹੀਂ ਖੁਦਮੁਖਤਿਆਰੀ ਨਾਲ ਕੰਮ ਕਰਨ ਅਤੇ ਤਰਕ ਕਰਨ ਦੀ ਸਮਰੱਥਾ ਦਾ ਪ੍ਰਦਰਸ਼ਨ ਕਰਦਾ ਹੈ। Gemini 2.0 Flash Thinking Experimental ਮਾਡਲ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਜਵਾਬ ਤੱਕ ਪਹੁੰਚਣ ਲਈ ਵਰਤੀ ਗਈ ਵਿਚਾਰ ਪ੍ਰਕਿਰਿਆ ਬਾਰੇ ਜਾਣਕਾਰੀ ਵੀ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ। ਇਸ ਤੋਂ ਇਲਾਵਾ, ਦਸੰਬਰ ਵਿੱਚ, Google ਨੇ Project Mariner ਪੇਸ਼ ਕੀਤਾ, ਇੱਕ Gemini-ਅਧਾਰਤ ਏਜੰਟਿਕ AI ਵਿਸ਼ੇਸ਼ਤਾ ਜੋ ਔਨਲਾਈਨ ਕਰਿਆਨੇ ਦੀ ਖਰੀਦਦਾਰੀ ਵਰਗੇ ਕੰਮਾਂ ਨੂੰ ਖੁਦਮੁਖਤਿਆਰੀ ਨਾਲ ਕਰਨ ਲਈ ਤਿਆਰ ਕੀਤੀ ਗਈ ਹੈ।
2. Anthropic
ਜਨਰੇਟਿਵ AI ਦੀਆਂ ਪ੍ਰਾਇਮਰੀ ਐਪਲੀਕੇਸ਼ਨਾਂ ਹੁਣ ਤੱਕ ਟੈਕਸਟ ਲਿਖਣ, ਸੰਖੇਪ, ਅਤੇ ਚਿੱਤਰ ਬਣਾਉਣ ਦੇ ਆਲੇ-ਦੁਆਲੇ ਕੇਂਦ੍ਰਿਤ ਹਨ। ਅਗਲਾ ਵਿਕਾਸਵਾਦੀ ਕਦਮ ਵੱਡੇ ਭਾਸ਼ਾ ਮਾਡਲਾਂ ਨੂੰ ਤਰਕ ਯੋਗਤਾਵਾਂ ਅਤੇ ਸਾਧਨਾਂ ਦੀ ਵਰਤੋਂ ਕਰਨ ਦੀ ਸਮਰੱਥਾ ਨਾਲ ਲੈਸ ਕਰਨਾ ਸ਼ਾਮਲ ਹੈ। Anthropic ਦੇ ‘Computer Use’ ਮਾਡਲ ਨੇ ਇਸ ਭਵਿੱਖ ਵਿੱਚ ਇੱਕ ਸ਼ੁਰੂਆਤੀ ਝਲਕ ਪ੍ਰਦਾਨ ਕੀਤੀ।
2024 ਵਿੱਚ Claude 3.5 Sonnet ਨਾਲ ਸ਼ੁਰੂ ਕਰਦੇ ਹੋਏ, Anthropic ਦਾ ਮਾਡਲ ਇੰਟਰਨੈਟ ਸਮੱਗਰੀ ਸਮੇਤ, ਆਨ-ਸਕ੍ਰੀਨ ਗਤੀਵਿਧੀ ਨੂੰ ਸਮਝ ਸਕਦਾ ਹੈ। ਇਹ ਇੱਕ ਕਰਸਰ ਨੂੰ ਹੇਰਾਫੇਰੀ ਕਰ ਸਕਦਾ ਹੈ, ਬਟਨਾਂ ‘ਤੇ ਕਲਿੱਕ ਕਰ ਸਕਦਾ ਹੈ, ਅਤੇ ਟੈਕਸਟ ਇਨਪੁਟ ਕਰ ਸਕਦਾ ਹੈ। ਇੱਕ ਪ੍ਰਦਰਸ਼ਨੀ ਵੀਡੀਓ ਵਿੱਚ ਦਿਖਾਇਆ ਗਿਆ ਹੈ ਕਿ Claude ਬ੍ਰਾਊਜ਼ਰ ਟੈਬਾਂ ਵਿੱਚ ਖੁੱਲ੍ਹੀਆਂ ਵੈੱਬਸਾਈਟਾਂ ‘ਤੇ ਉਪਲਬਧ ਜਾਣਕਾਰੀ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਇੱਕ ਫਾਰਮ ਨੂੰ ਪੂਰਾ ਕਰਨ ਦੇ ਯੋਗ ਹੈ। ਇਹ ਇੱਕ ਨਿੱਜੀ ਵੈੱਬਸਾਈਟ ਬਣਾਉਣ ਜਾਂ ਇੱਕ ਦਿਨ ਦੀ ਯਾਤਰਾ ਦੇ ਪ੍ਰਬੰਧਾਂ ਨੂੰ ਸੰਗਠਿਤ ਕਰਨ ਵਰਗੇ ਕੰਮਾਂ ਨੂੰ ਪੂਰਾ ਕਰ ਸਕਦਾ ਹੈ। AI ਦੀਆਂ ਖੁਦਮੁਖਤਿਆਰ ਕਾਰਵਾਈਆਂ, ਜਿਵੇਂ ਕਿ ਨਵੇਂ ਟੈਬ ਖੋਲ੍ਹਣਾ, ਖੋਜਾਂ ਕਰਨਾ, ਅਤੇ ਡੇਟਾ ਖੇਤਰਾਂ ਨੂੰ ਭਰਨਾ, ਸੱਚਮੁੱਚ ਕਮਾਲ ਦੀਆਂ ਹਨ।
ਹਾਲਾਂਕਿ ਮਾਡਲ ਵਰਤਮਾਨ ਵਿੱਚ ਹੌਲੀ ਰਫ਼ਤਾਰ ਨਾਲ ਕੰਮ ਕਰਦਾ ਹੈ ਅਤੇ ਹੋ ਸਕਦਾ ਹੈ ਕਿ ਹਮੇਸ਼ਾ ਸਹੀ ਜਵਾਬ ਨਾ ਦੇਵੇ, ਪਰ ਜਿਵੇਂ ਕਿ Anthropic ਆਪਣੀਆਂ ਕਮੀਆਂ ਦੀ ਪਛਾਣ ਕਰਦਾ ਹੈ ਅਤੇ ਉਹਨਾਂ ਨੂੰ ਹੱਲ ਕਰਦਾ ਹੈ, ਤੇਜ਼ੀ ਨਾਲ ਸੁਧਾਰਾਂ ਦੀ ਉਮੀਦ ਕੀਤੀ ਜਾਂਦੀ ਹੈ। Google ਦੇ ਉਪਰੋਕਤ Project Mariner ਨੇ ਦਸੰਬਰ ਵਿੱਚ Anthropic ਦੀ ਅਗਵਾਈ ਦੀ ਪਾਲਣਾ ਕੀਤੀ, ਅਤੇ OpenAI ਨੇ ਜਨਵਰੀ 2025 ਵਿੱਚ ਆਪਣਾ ਕੰਪਿਊਟਰ ਵਰਤੋਂ ਮਾਡਲ, Operator ਪੇਸ਼ ਕੀਤਾ। ਫਰਵਰੀ 2025 ਵਿੱਚ, Anthropic ਨੇ ਆਪਣੀ ਅਗਲੀ ਵੱਡੀ ਪੁਨਰਾਵ੍ਰੱਤੀ, Claude 3.7 Sonnet ਦਾ ਪਰਦਾਫਾਸ਼ ਕੀਤਾ, ਇੱਕ ਵੱਡਾ ਮਾਡਲ ਜੋ ਚੁਣੌਤੀਪੂਰਨ ਸਵਾਲਾਂ ਲਈ ਆਪਣੇ ਆਪ ਰੀਜ਼ਨਿੰਗ ਮੋਡ ਨੂੰ ਸ਼ਾਮਲ ਕਰਨ ਦੇ ਸਮਰੱਥ ਹੈ।
2. Microsoft
Microsoft ਦੇ Phi ਮਾਡਲਾਂ ਦਾ ਵਿਕਾਸ 2023 ਵਿੱਚ ਕੰਪਨੀ ਦੇ ਖੋਜਕਰਤਾਵਾਂ ਦੁਆਰਾ ਪੁੱਛੇ ਗਏ ਇੱਕ ਬੁਨਿਆਦੀ ਸਵਾਲ ਤੋਂ ਪੈਦਾ ਹੋਇਆ ਸੀ: “ਉਭਰਦੀ ਬੁੱਧੀ ਦੇ ਸੰਕੇਤ ਦਿਖਾਉਣ ਲਈ ਸਭ ਤੋਂ ਛੋਟਾ ਮਾਡਲ ਆਕਾਰ ਕੀ ਹੈ?” ਇਹ ਪੁੱਛਗਿੱਛ ‘ਛੋਟੇ ਭਾਸ਼ਾ ਮਾਡਲਾਂ’ ਦੇ ਵਿਕਾਸ ਵਿੱਚ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਪਲ ਸੀ, ਅਜਿਹੇ ਮਾਡਲ ਜੋ ਸੀਮਤ ਮੈਮੋਰੀ, ਪ੍ਰੋਸੈਸਿੰਗ ਪਾਵਰ, ਜਾਂ ਕਨੈਕਟੀਵਿਟੀ ਵਾਲੇ ਦ੍ਰਿਸ਼ਾਂ ਵਿੱਚ ਅਨੁਕੂਲ ਪ੍ਰਦਰਸ਼ਨ ਲਈ ਤਿਆਰ ਕੀਤੇ ਗਏ ਹਨ, ਜਿੱਥੇ ਤੇਜ਼ ਜਵਾਬ ਦੇ ਸਮੇਂ ਮਹੱਤਵਪੂਰਨ ਹੁੰਦੇ ਹਨ।
2024 ਦੌਰਾਨ, Microsoft ਨੇ ਛੋਟੇ ਮਾਡਲਾਂ ਦੀਆਂ ਦੋ ਪੀੜ੍ਹੀਆਂ ਜਾਰੀ ਕੀਤੀਆਂ ਜਿਨ੍ਹਾਂ ਨੇ ਤਰਕ ਅਤੇ ਤਰਕ ਸਮਰੱਥਾਵਾਂ ਦਾ ਪ੍ਰਦਰਸ਼ਨ ਕੀਤਾ ਜੋ ਸਿਖਲਾਈ ਦੌਰਾਨ ਸਪੱਸ਼ਟ ਤੌਰ ‘ਤੇ ਸ਼ਾਮਲ ਨਹੀਂ ਕੀਤੀਆਂ ਗਈਆਂ ਸਨ। ਅਪ੍ਰੈਲ ਵਿੱਚ, ਕੰਪਨੀ ਨੇ Phi-3 ਮਾਡਲਾਂ ਦੀ ਇੱਕ ਲੜੀ ਦਾ ਪਰਦਾਫਾਸ਼ ਕੀਤਾ ਜੋ ਭਾਸ਼ਾ, ਤਰਕ, ਕੋਡਿੰਗ ਅਤੇ ਗਣਿਤ ਦੇ ਬੈਂਚਮਾਰਕਾਂ ਵਿੱਚ ਉੱਤਮ ਸਨ, ਸੰਭਾਵਤ ਤੌਰ ‘ਤੇ ਉਹਨਾਂ ਦੀ ਸਿਖਲਾਈ ਸਿੰਥੈਟਿਕ ਡੇਟਾ ‘ਤੇ ਹੋਣ ਕਾਰਨ ਜੋ ਕਿ ਕਾਫ਼ੀ ਵੱਡੇ ਅਤੇ ਵਧੇਰੇ ਸਮਰੱਥ LLMs ਦੁਆਰਾ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਸੀ। ਓਪਨ-ਸੋਰਸ Phi-3 ਦੇ ਰੂਪਾਂ ਨੂੰ 2024 ਦੌਰਾਨ Hugging Face ‘ਤੇ 4.5 ਮਿਲੀਅਨ ਤੋਂ ਵੱਧ ਵਾਰ ਡਾਊਨਲੋਡ ਕੀਤਾ ਗਿਆ ਸੀ।
2024 ਦੇ ਅਖੀਰ ਵਿੱਚ, Microsoft ਨੇ ਆਪਣੇ Phi-4 ਛੋਟੇ ਭਾਸ਼ਾ ਮਾਡਲਾਂ ਨੂੰ ਲਾਂਚ ਕੀਤਾ, ਜਿਸਨੇ ਤਰਕ-ਕੇਂਦ੍ਰਿਤ ਕੰਮਾਂ ਵਿੱਚ Phi-3 ਮਾਡਲਾਂ ਨੂੰ ਪਛਾੜ ਦਿੱਤਾ ਅਤੇ ਇੱਥੋਂ ਤੱਕ ਕਿ GPQA (ਵਿਗਿਆਨਕ ਸਵਾਲ) ਅਤੇ MATH ਬੈਂਚਮਾਰਕਾਂ ‘ਤੇ OpenAI ਦੇ GPT-4o ਨੂੰ ਵੀ ਪਛਾੜ ਦਿੱਤਾ। Microsoft ਨੇ ਮਾਡਲ ਨੂੰ ਇੱਕ ਓਪਨ-ਸੋਰਸ ਅਤੇ ਓਪਨ-ਵੇਟ ਲਾਇਸੈਂਸ ਦੇ ਅਧੀਨ ਜਾਰੀ ਕੀਤਾ, ਜਿਸ ਨਾਲ ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਫੋਨਾਂ ਜਾਂ ਲੈਪਟਾਪਾਂ ਲਈ ਐਜ ਮਾਡਲ ਜਾਂ ਐਪਲੀਕੇਸ਼ਨ ਬਣਾਉਣ ਦਾ ਅਧਿਕਾਰ ਦਿੱਤਾ ਗਿਆ। ਇੱਕ ਮਹੀਨੇ ਤੋਂ ਵੀ ਘੱਟ ਸਮੇਂ ਵਿੱਚ, Phi-4 ਨੇ Hugging Face ‘ਤੇ 375,000 ਡਾਊਨਲੋਡ ਹਾਸਲ ਕੀਤੇ।
2. Amazon
Amazon AWS ਨੇ ਹਾਲ ਹੀ ਵਿੱਚ Trainium2 ਪੇਸ਼ ਕੀਤਾ, ਜੋ ਕਿ AI ਲਈ ਇਸਦੇ Trainium ਪ੍ਰੋਸੈਸਰ ਦਾ ਇੱਕ ਨਵਾਂ ਸੰਸਕਰਣ ਹੈ, ਜੋ ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ ਖਾਸ ਸੈਟਿੰਗਾਂ ਵਿੱਚ Nvidia GPUs ਦੇ ਦਬਦਬੇ ਨੂੰ ਚੁਣੌਤੀ ਦੇ ਸਕਦਾ ਹੈ। Trainium2 ਨੂੰ ਸਭ ਤੋਂ ਵੱਡੇ ਜਨਰੇਟਿਵ AI ਮਾਡਲਾਂ ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਅਤੇ ਮਾਡਲ ਤੈਨਾਤੀ ਤੋਂ ਬਾਅਦ ਇਨਫਰੈਂਸ-ਟਾਈਮ ਓਪਰੇਸ਼ਨਾਂ ਲਈ ਲੋੜੀਂਦੀ ਵੱਡੀ ਕੰਪਿਊਟਿੰਗ ਪਾਵਰ ਪ੍ਰਦਾਨ ਕਰਨ ਲਈ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਹੈ। AWS ਦਾ ਦਾਅਵਾ ਹੈ ਕਿ Trainium ਤੁਲਨਾਤਮਕ ਕੰਮਾਂ ਲਈ GPUs ਨਾਲੋਂ 30% ਤੋਂ 40% ਜ਼ਿਆਦਾ ਲਾਗਤ-ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਹੈ।
Trainium2 ਪਹਿਲੇ Trainium ਚਿੱਪ ਵਿੱਚ ਦੇਖੀਆਂ ਗਈਆਂ ਪਾਵਰ ਅਤੇ ਸੌਫਟਵੇਅਰ ਏਕੀਕਰਣ ਦੀਆਂ ਕਮੀਆਂ ਨੂੰ ਹੱਲ ਕਰਦਾ ਹੈ, ਜਿਸ ਨਾਲ Amazon ਸੰਭਾਵੀ ਤੌਰ ‘ਤੇ Nvidia ਨਾਲ ਪਾੜੇ ਨੂੰ ਪੂਰਾ ਕਰ ਸਕਦਾ ਹੈ। (ਇਹ ਧਿਆਨ ਦੇਣ ਯੋਗ ਹੈ ਕਿ AWS ਖੁਦ GPUs ਲਈ Nvidia ‘ਤੇ ਬਹੁਤ ਜ਼ਿਆਦਾ ਨਿਰਭਰ ਕਰਦਾ ਹੈ।) Nvidia ਨੂੰ ਹਟਾਉਣਾ ਇੱਕ ਵੱਡੀ ਚੁਣੌਤੀ ਹੈ ਕਿਉਂਕਿ ਗਾਹਕ Nvidia ਦੇ CUDA ਸੌਫਟਵੇਅਰ ਲੇਅਰ ਨਾਲ ਜੁੜੇ ਹੋਏ ਹਨ, ਜੋ ਖੋਜਕਰਤਾਵਾਂ ਨੂੰ ਇਸ ਗੱਲ ‘ਤੇ ਵਿਸਤ੍ਰਿਤ ਨਿਯੰਤਰਣ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ ਕਿ ਉਹਨਾਂ ਦੇ ਮਾਡਲ ਚਿੱਪ ਦੇ ਸਰੋਤਾਂ ਦੀ ਵਰਤੋਂ ਕਿਵੇਂ ਕਰਦੇ ਹਨ। Amazon ਆਪਣੀ ਖੁਦ ਦੀ ਕਰਨਲ ਕੰਟਰੋਲ ਸੌਫਟਵੇਅਰ ਲੇਅਰ, Neuron Kernel Interface (NKI) ਦੀ ਪੇਸ਼ਕਸ਼ ਕਰਦਾ ਹੈ, ਜੋ ਕਿ CUDA ਵਾਂਗ, ਖੋਜਕਰਤਾਵਾਂ ਨੂੰ ਚਿੱਪ ਕਰਨਲ ਇੰਟਰੈਕਸ਼ਨਾਂ ‘ਤੇ ਬਾਰੀਕ ਨਿਯੰਤਰਣ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ।
ਇਹ ਨੋਟ ਕਰਨਾ ਮਹੱਤਵਪੂਰਨ ਹੈ ਕਿ Trainium2 ਦੀ ਅਜੇ ਵੱਡੇ ਪੱਧਰ ‘ਤੇ ਜਾਂਚ ਨਹੀਂ ਕੀਤੀ ਗਈ ਹੈ। AWS ਵਰਤਮਾਨ ਵਿੱਚ Anthropic ਲਈ 400,000 Trainium2 ਚਿਪਸ ਵਾਲਾ ਇੱਕ ਸਰਵਰ ਕਲੱਸਟਰ ਬਣਾ ਰਿਹਾ ਹੈ, ਜੋ ਵੱਡੇ ਪੈਮਾਨੇ ਦੀਆਂ ਤੈਨਾਤੀਆਂ ਵਿੱਚ ਇਸਦੇ AI ਚਿਪਸ ਦੇ ਪ੍ਰਦਰਸ਼ਨ ਨੂੰ ਅਨੁਕੂਲ ਬਣਾਉਣ ਬਾਰੇ ਕੀਮਤੀ ਜਾਣਕਾਰੀ ਪ੍ਰਦਾਨ ਕਰ ਸਕਦਾ ਹੈ।
2. Arm
ਬ੍ਰਿਟਿਸ਼ ਸੈਮੀਕੰਡਕਟਰ ਡਿਜ਼ਾਈਨਰ Arm ਲੰਬੇ ਸਮੇਂ ਤੋਂ ਫੋਨ, ਸੈਂਸਰ ਅਤੇ IoT ਹਾਰਡਵੇਅਰ ਵਰਗੇ ਛੋਟੇ ਉਪਕਰਣਾਂ ਨੂੰ ਪਾਵਰ ਦੇਣ ਵਾਲੀਆਂ ਚਿਪਸ ਵਿੱਚ ਵਰਤੇ ਜਾਣ ਵਾਲੇ ਆਰਕੀਟੈਕਚਰ ਦਾ ਇੱਕ ਮੁੱਖ ਪ੍ਰਦਾਤਾ ਰਿਹਾ ਹੈ। ਇਹ ਭੂਮਿਕਾ ਉਭਰ ਰਹੇ ਯੁੱਗ ਵਿੱਚ ਵਧੇਰੇ ਮਹੱਤਵਪੂਰਨ ਹੋ ਜਾਂਦੀ ਹੈ ਜਿੱਥੇ ਐਜ ਡਿਵਾਈਸ ਚਿਪਸ AI ਮਾਡਲਾਂ ਨੂੰ ਚਲਾਉਣਗੀਆਂ। ਡੇਟਾ ਸੈਂਟਰ ਵੀ ਇਸ ਵਿਕਾਸ ਵਿੱਚ ਇੱਕ ਮਹੱਤਵਪੂਰਨ ਭੂਮਿਕਾ ਨਿਭਾਉਣਗੇ, ਅਕਸਰ ਸਭ ਤੋਂ ਵੱਧ ਮੰਗ ਵਾਲੇ AI ਪ੍ਰੋਸੈਸਿੰਗ ਵਿੱਚੋਂ ਕੁਝ ਜਾਂ ਸਾਰੇ ਨੂੰ ਸੰਭਾਲਦੇ ਹਨ ਅਤੇ ਐਜ ਡਿਵਾਈਸਾਂ ਨੂੰ ਨਤੀਜੇ ਪ੍ਰਦਾਨ ਕਰਦੇ ਹਨ।
ਜਿਵੇਂ ਕਿ ਦੁਨੀਆ ਭਰ ਵਿੱਚ ਡੇਟਾ ਸੈਂਟਰਾਂ ਦਾ ਵਿਸਤਾਰ ਹੋ ਰਿਹਾ ਹੈ, ਉਹਨਾਂ ਦੀ ਬਿਜਲੀ ਦੀ ਖਪਤ ਇੱਕ ਵਧਦੀ ਹੋਈ ਚਿੰਤਾ ਦਾ ਵਿਸ਼ਾ ਬਣ ਜਾਵੇਗੀ। ਇਹ ਕਾਰਕ Arm ਦੇ ਨਵੀਨਤਮ Neoverse CPU ਆਰਕੀਟੈਕਚਰ ਵਿੱਚ ਕੁਸ਼ਲਤਾ ‘ਤੇ ਜ਼ੋਰ ਦੇਣ ਵਿੱਚ ਯੋਗਦਾਨ ਪਾਉਂਦਾ ਹੈ। ਕੰਪਨੀ ਦੇ ਅਨੁਸਾਰ, ਇਹ ਪਿਛਲੀਆਂ ਪੀੜ੍ਹੀਆਂ ਨਾਲੋਂ 50% ਪ੍ਰਦਰਸ਼ਨ ਵਿੱਚ ਸੁਧਾਰ ਅਤੇ ਪ੍ਰਤੀਯੋਗੀ x86 ਆਰਕੀਟੈਕਚਰ ਦੀ ਵਰਤੋਂ ਕਰਨ ਵਾਲੇ ਪ੍ਰੋਸੈਸਰਾਂ ਦੇ ਮੁਕਾਬਲੇ 20% ਬਿਹਤਰ ਪ੍ਰਦਰਸ਼ਨ ਪ੍ਰਤੀ ਵਾਟ ਦਾ ਮਾਣ ਪ੍ਰਾਪਤ ਕਰਦਾ ਹੈ।
Arm ਰਿਪੋਰਟ ਕਰਦਾ ਹੈ ਕਿ Amazon, Microsoft, Google, ਅਤੇ Oracle ਸਾਰਿਆਂ ਨੇ ਆਮ-ਉਦੇਸ਼ ਕੰਪਿਊਟਿੰਗ ਅਤੇ CPU-ਅਧਾਰਤ AI ਇਨਫਰੈਂਸ ਅਤੇ ਸਿਖਲਾਈ ਦੋਵਾਂ ਲਈ Arm Neoverse ਨੂੰ ਅਪਣਾਇਆ ਹੈ। ਉਦਾਹਰਨ ਲਈ, 2024 ਵਿੱਚ, Microsoft ਨੇ ਘੋਸ਼ਣਾ ਕੀਤੀ ਕਿ ਕਲਾਉਡ ਲਈ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਇਸਦਾ ਪਹਿਲਾ ਕਸਟਮ ਸਿਲੀਕਾਨ, Cobalt 100 ਪ੍ਰੋਸੈਸਰ, Arm Neoverse ‘ਤੇ ਬਣਾਇਆ ਗਿਆ ਸੀ। ਕੁਝ ਸਭ ਤੋਂ ਵੱਡੇ AI ਡੇਟਾ ਸੈਂਟਰ NVIDIA ਦੇ Grace Hopper Superchip ‘ਤੇ ਨਿਰਭਰ ਕਰਨਗੇ, ਜੋ Neoverse ‘ਤੇ ਅਧਾਰਤ ਇੱਕ Hopper GPU ਅਤੇ ਇੱਕ Grace CPU ਨੂੰ ਜੋੜਦਾ ਹੈ। Arm ਇਸ ਸਾਲ ਆਪਣਾ CPU ਲਾਂਚ ਕਰਨ ਵਾਲਾ ਹੈ, ਜਿਸ ਵਿੱਚ Meta ਇਸਦੇ ਸ਼ੁਰੂਆਤੀ ਗਾਹਕਾਂ ਵਿੱਚੋਂ ਇੱਕ ਹੈ।
2. Gretel
ਪਿਛਲੇ ਸਾਲ ਦੌਰਾਨ, AI ਕੰਪਨੀਆਂ ਨੇ ਵੈੱਬ ਤੋਂ ਕੱਢੇ ਗਏ ਡੇਟਾ ਦੀ ਵੱਧ ਰਹੀ ਮਾਤਰਾ ਨਾਲ ਆਪਣੇ ਮਾਡਲਾਂ ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਤੋਂ ਘੱਟ ਰਿਟਰਨ ਦਾ ਅਨੁਭਵ ਕੀਤਾ ਹੈ। ਨਤੀਜੇ ਵਜੋਂ, ਉਹਨਾਂ ਨੇ ਸਿਖਲਾਈ ਡੇਟਾ ਦੀ ਸਿਰਫ਼ ਮਾਤਰਾ ਤੋਂ ਇਸਦੀ ਗੁਣਵੱਤਾ ਵੱਲ ਆਪਣਾ ਧਿਆਨ ਕੇਂਦਰਿਤ ਕੀਤਾ ਹੈ। ਇਸ ਨਾਲ ਪ੍ਰਕਾਸ਼ਕ ਭਾਈਵਾਲਾਂ ਤੋਂ ਲਾਇਸੰਸਸ਼ੁਦਾ ਗੈਰ-ਜਨਤਕ ਅਤੇ ਵਿਸ਼ੇਸ਼ ਸਮੱਗਰੀ ਵਿੱਚ ਵਧੇਰੇ ਨਿਵੇਸ਼ ਹੋਇਆ ਹੈ। AI ਖੋਜਕਰਤਾਵਾਂ ਨੂੰ ਉਹਨਾਂ ਦੇ ਮਨੁੱਖ ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੇ ਜਾਂ ਮਨੁੱਖ ਦੁਆਰਾ ਵਿਆਖਿਆ ਕੀਤੇ ਸਿਖਲਾਈ ਡੇਟਾ ਦੇ ਅੰਦਰ ਅੰਤਰਾਲਾਂ ਜਾਂ ਅੰਨ੍ਹੇ ਸਥਾਨਾਂ ਨੂੰ ਵੀ ਹੱਲ ਕਰਨ ਦੀ ਲੋੜ ਹੈ। ਇਸ ਉਦੇਸ਼ ਲਈ, ਉਹਨਾਂ ਨੇ ਵਿਸ਼ੇਸ਼ AI ਮਾਡਲਾਂ ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੇ ਸਿੰਥੈਟਿਕ ਸਿਖਲਾਈ ਡੇਟਾ ਵੱਲ ਤੇਜ਼ੀ ਨਾਲ ਰੁਖ ਕੀਤਾ ਹੈ।
Gretel ਨੇ 2024 ਵਿੱਚ ਸਿੰਥੈਟਿਕ ਸਿਖਲਾਈ ਡੇਟਾ ਦੀ ਸਿਰਜਣਾ ਅਤੇ ਕਿਊਰੇਸ਼ਨ ਵਿੱਚ ਮੁਹਾਰਤ ਹਾਸਲ ਕਰਕੇ ਪ੍ਰਮੁੱਖਤਾ ਹਾਸਲ ਕੀਤੀ। ਕੰਪਨੀ ਨੇ ਆਪਣੇ ਫਲੈਗਸ਼ਿਪ ਉਤਪਾਦ, Gretel Navigator ਦੀ ਆਮ ਉਪਲਬਧਤਾ ਦੀ ਘੋਸ਼ਣਾ ਕੀਤੀ, ਜੋ ਡਿਵੈਲਪਰਾਂ ਨੂੰ ਫਾਈਨ-ਟਿਊਨਿੰਗ ਅਤੇ ਟੈਸਟਿੰਗ ਲਈ ਸਿੰਥੈਟਿਕ ਸਿਖਲਾਈ ਡੇਟਾਸੈਟਾਂ ਨੂੰ ਤਿਆਰ ਕਰਨ, ਵਧਾਉਣ, ਸੰਪਾਦਿਤ ਕਰਨ ਅਤੇ ਕਿਊਰੇਟ ਕਰਨ ਲਈ ਕੁਦਰਤੀ ਭਾਸ਼ਾ ਜਾਂ SQL ਪ੍ਰੋਂਪਟਾਂ ਦੀ ਵਰਤੋਂ ਕਰਨ ਦੇ ਯੋਗ ਬਣਾਉਂਦਾ ਹੈ। ਪਲੇਟਫਾਰਮ ਨੇ ਪਹਿਲਾਂ ਹੀ 150,000 ਤੋਂ ਵੱਧ ਡਿਵੈਲਪਰਾਂ ਦਾ ਇੱਕ ਭਾਈਚਾਰਾ ਆਕਰਸ਼ਿਤ ਕੀਤਾ ਹੈ ਜਿਨ੍ਹਾਂ ਨੇ ਸਿਖਲਾਈ ਡੇਟਾ ਦੇ 350 ਬਿਲੀਅਨ ਤੋਂ ਵੱਧ ਟੁਕੜਿਆਂ ਨੂੰ ਸਿੰਥੇਸਾਈਜ਼ ਕੀਤਾ ਹੈ।
ਹੋਰ ਉਦਯੋਗਿਕ ਖਿਡਾਰੀਆਂ ਨੇ Gretel ਦੀਆਂ ਸਮਰੱਥਾਵਾਂ ਵੱਲ ਧਿਆਨ ਦਿੱਤਾ ਹੈ। Gretel ਨੇ Google Cloud ਗਾਹਕਾਂ ਲਈ ਆਪਣੇ ਸਿੰਥੈਟਿਕ ਸਿਖਲਾਈ ਡੇਟਾ ਨੂੰ ਆਸਾਨੀ ਨਾਲ ਪਹੁੰਚਯੋਗ ਬਣਾਉਣ ਲਈ Google ਨਾਲ ਸਾਂਝੇਦਾਰੀ ਕੀਤੀ। Databricks ਨਾਲ ਇੱਕ ਸਮਾਨ ਸਾਂਝੇਦਾਰੀ ਦੀ ਘੋਸ਼ਣਾ ਜੂਨ ਵਿੱਚ ਕੀਤੀ ਗਈ ਸੀ, ਜਿਸ ਨਾਲ Databricks ਦੇ ਐਂਟਰਪ੍ਰਾਈਜ਼ ਗਾਹਕਾਂ ਨੂੰ Databricks ਕਲਾਉਡ ਦੇ ਅੰਦਰ ਚੱਲ ਰਹੇ ਉਹਨਾਂ ਦੇ ਮਾਡਲਾਂ ਲਈ ਸਿੰਥੈਟਿਕ ਸਿਖਲਾਈ ਡੇਟਾ ਤੱਕ ਪਹੁੰਚ ਪ੍ਰਦਾਨ ਕੀਤੀ ਗਈ ਸੀ।
2. Mistral AI
Mistral AI, ਜਨਰੇਟਿਵ AI ਅਖਾੜੇ ਵਿੱਚ ਫਰਾਂਸ ਦਾ ਦਾਅਵੇਦਾਰ, ਨੇ ਲਗਾਤਾਰ ਫਰੰਟੀਅਰ AI ਮਾਡਲ ਵਿਕਾਸ ਵਿੱਚ ਸਭ ਤੋਂ ਅੱਗੇ OpenAI, Anthropic, ਅਤੇ Google ‘ਤੇ ਦਬਾਅ ਪਾਇਆ ਹੈ। Mistral AI ਨੇ 2024 ਵਿੱਚ ਮਹੱਤਵਪੂਰਨ ਤਕਨੀਕੀ ਤਰੱਕੀਆਂ ਨੂੰ ਸ਼ਾਮਲ ਕਰਦੇ ਹੋਏ ਨਵੇਂ ਮਾਡਲਾਂ ਦੀ ਇੱਕ ਲੜੀ ਜਾਰੀ ਕੀਤੀ, ਜਿਸ ਵਿੱਚ ਇਸਦੇ APIs ਦੀ ਸਿੱਧੀ ਮਾਰਕੀਟਿੰਗ ਅਤੇ ਰਣਨੀਤਕ ਭਾਈਵਾਲੀ ਦੋਵਾਂ ਰਾਹੀਂ ਤੇਜ਼ੀ ਨਾਲ ਵਪਾਰਕ ਵਿਕਾਸ ਦਾ ਪ੍ਰਦਰਸ਼ਨ ਕੀਤਾ ਗਿਆ।
ਸਾਲ ਦੇ ਸ਼ੁਰੂ ਵਿੱਚ, ਕੰਪਨੀ ਨੇ Mixtral ਨਾਮਕ ਓਪਨ-ਸੋਰਸ ਮਾਡਲਾਂ ਦੀ ਇੱਕ ਜੋੜੀ ਪੇਸ਼ ਕੀਤੀ, ਜੋ ਕਿ ‘ਮਿਸ਼ਰਣ ਦੇ ਮਾਹਰ’ ਆਰਕੀਟੈਕਚਰ ਦੀ ਨਵੀਨਤਾਕਾਰੀ ਵਰਤੋਂ ਲਈ ਮਹੱਤਵਪੂਰਨ ਹਨ, ਜਿੱਥੇ ਕੁਸ਼ਲਤਾ ਵਧਾਉਣ ਲਈ, ਇੱਕ ਸਵਾਲ ਨੂੰ ਸੰਭਾਲਣ ਲਈ ਮਾਡਲ ਦੇ ਮਾਪਦੰਡਾਂ ਦਾ ਸਿਰਫ਼ ਇੱਕ ਵਿਸ਼ੇਸ਼ ਉਪ ਸਮੂਹ ਸ਼ਾਮਲ ਕੀਤਾ ਜਾਂਦਾ ਹੈ। ਜੁਲਾਈ 2024 ਵਿੱਚ, Mistral ਨੇ Mistral Large 2 ਦੀ ਘੋਸ਼ਣਾ ਕੀਤੀ, ਜਿਸ ਨੇ 123 ਬਿਲੀਅਨ ਮਾਪਦੰਡਾਂ ‘ਤੇ, ਕੋਡ ਉਤਪਾਦਨ, ਗਣਿਤ, ਤਰਕ ਅਤੇ ਫੰਕਸ਼ਨ ਕਾਲਿੰਗ ਵਿੱਚ ਮਹੱਤਵਪੂਰਨ ਸੁਧਾਰਾਂ ਦਾ ਪ੍ਰਦਰਸ਼ਨ ਕੀਤਾ। ਫ੍ਰੈਂਚ ਕੰਪਨੀ ਨੇ Ministral 3B ਅਤੇ Ministral 8B ਵੀ ਜਾਰੀ ਕੀਤੇ, ਜੋ ਕਿ ਲੈਪਟਾਪਾਂ ਜਾਂ ਫੋਨਾਂ ‘ਤੇ ਚੱਲਣ ਲਈ ਤਿਆਰ ਕੀਤੇ ਗਏ ਛੋਟੇ ਮਾਡਲ ਹਨ, ਜੋ ਉਪਭੋਗਤਾ ਦੁਆਰਾ ਪ੍ਰਦਾਨ ਕੀਤੀ ਗਈ ਪ੍ਰਸੰਗਿਕ ਜਾਣਕਾਰੀ ਦੇ ਲਗਭਗ 50 ਟੈਕਸਟ ਪੰਨਿਆਂ ਨੂੰ ਸਟੋਰ ਕਰਨ ਦੇ ਸਮਰੱਥ ਹਨ।
Mistral ਨੇ ਯੂਰਪ ਵਿੱਚ ਆਪਣੇ ਆਪ ਨੂੰ ਅਮਰੀਕੀ AI ਕੰਪਨੀਆਂ ਜਿਵੇਂ ਕਿ OpenAI ਦੇ ਘੱਟ ਲਾਗਤ ਅਤੇ ਲਚਕਦਾਰ ਵਿਕਲਪ ਵਜੋਂ ਸਥਾਪਤ ਕਰਕੇ ਸਫਲਤਾ ਪ੍ਰਾਪਤ ਕੀਤੀ ਹੈ। ਇਸਨੇ 2024 ਦੌਰਾਨ ਅਮਰੀਕੀ ਉੱਦਮ ਬਾਜ਼ਾਰ ਵਿੱਚ ਆਪਣਾ ਵਿਸਤਾਰ ਵੀ ਜਾਰੀ ਰੱਖਿਆ। ਜੂਨ ਵਿੱਚ, ਕੰਪਨੀ ਨੇ ਉੱਦਮ ਪੂੰਜੀ ਫਰਮ ਜਨਰਲ ਕੈਟਾਲਿਸਟ ਦੀ ਅਗਵਾਈ ਵਿੱਚ $640 ਮਿਲੀਅਨ ਦੀ ਫੰਡਿੰਗ ਪ੍ਰਾਪਤ ਕੀਤੀ, ਜਿਸ ਨਾਲ Mistral ਦਾ ਮੁੱਲ ਲਗਭਗ $6.2 ਬਿਲੀਅਨ ਹੋ ਗਿਆ।
2. Fireworks AI
Fireworks ਇੱਕ ਕਸਟਮ ਰਨਟਾਈਮ ਵਾਤਾਵਰਣ ਦੀ ਪੇਸ਼ਕਸ਼ ਕਰਦਾ ਹੈ ਜੋ AI ਤੈਨਾਤੀਆਂ ਲਈ ਬੁਨਿਆਦੀ ਢਾਂਚਾ ਬਣਾਉਣ ਨਾਲ ਜੁੜੇ ਅਕਸਰ-ਗੁੰਝਲਦਾਰ ਇੰਜੀਨੀਅਰਿੰਗ ਕੰਮ ਨੂੰ ਸੁਚਾਰੂ ਬਣਾਉਂਦਾ ਹੈ। Fireworks ਪਲੇਟਫਾਰਮ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹੋਏ, ਉੱਦਮ 100 ਤੋਂ ਵੱਧ AI ਮਾਡਲਾਂ ਵਿੱਚੋਂ ਕਿਸੇ ਨੂੰ ਵੀ ਏਕੀਕ੍ਰਿਤ ਕਰ ਸਕਦੇ ਹਨ ਅਤੇ ਫਿਰ ਉਹਨਾਂ ਨੂੰ ਉਹਨਾਂ ਦੇ ਖਾਸ ਵਰਤੋਂ ਦੇ ਮਾਮਲਿਆਂ ਲਈ ਅਨੁਕੂਲਿਤ ਅਤੇ ਫਾਈਨ-ਟਿਊਨ ਕਰ ਸਕਦੇ ਹਨ।
ਕੰਪਨੀ ਨੇ 2024 ਦੌਰਾਨ ਨਵੇਂ ਉਤਪਾਦ ਪੇਸ਼ ਕੀਤੇ ਜੋ ਇਸਨੂੰ AI ਉਦਯੋਗ ਵਿੱਚ ਮੁੱਖ ਰੁਝਾਨਾਂ ਦਾ ਫਾਇਦਾ ਉਠਾਉਣ ਲਈ ਸਥਿਤੀ ਵਿੱਚ ਰੱਖਣਗੇ। ਪਹਿਲਾਂ, ਡਿਵੈਲਪਰ AI-ਸੰਚਾਲਿਤ ਮਾਡਲਾਂ ਅਤੇ ਐਪਲੀਕੇਸ਼ਨਾਂ ਦੀ ਜਵਾਬਦੇਹੀ ‘ਤੇ ਤੇਜ਼ੀ ਨਾਲ ਧਿਆਨ ਕੇਂਦਰਿਤ ਕਰਦੇ ਹਨ। Fireworks ਨੇ FireAttention V2, ਅਨੁਕੂਲਤਾ ਅਤੇ ਕੁਆਂਟਾਈਜ਼ੇਸ਼ਨ ਸੌਫਟਵੇਅਰ ਦੀ ਸ਼ੁਰੂਆਤ ਕੀਤੀ ਜੋ ਮਾਡਲ ਪ੍ਰਦਰਸ਼ਨ ਨੂੰ ਤੇਜ਼ ਕਰਦਾ ਹੈ ਅਤੇ ਨੈੱਟਵਰਕ ਲੇਟੈਂਸੀ ਨੂੰ ਘਟਾਉਂਦਾ ਹੈ। ਦੂਜਾ, AI ਸਿਸਟਮ ਤੇਜ਼ੀ ਨਾਲ ‘ਪਾਈਪਲਾਈਨਾਂ’ ਵਿੱਚ ਵਿਕਸਤ ਹੋ ਰਹੇ ਹਨ ਜੋ APIs ਰਾਹੀਂ ਵੱਖ-ਵੱਖ ਮਾਡਲਾਂ ਅਤੇ ਸਾਧਨਾਂ ਨੂੰ ਬੁਲਾਉਂਦੇ ਹਨ। ਨਵਾਂ FireFunction V2 ਸੌਫਟਵੇਅਰ ਇਹਨਾਂ ਵਧਦੀਆਂ ਗੁੰਝਲਦਾਰ ਪ੍ਰਣਾਲੀਆਂ ਦੇ ਅੰਦਰ ਸਾਰੇ ਭਾਗਾਂ ਲਈ ਇੱਕ ਆਰਕੈਸਟ੍ਰੇਟਰ ਵਜੋਂ ਕੰਮ ਕਰਦਾ ਹੈ, ਖਾਸ ਤੌਰ ‘ਤੇ ਜਿਵੇਂ ਕਿ ਉੱਦਮ ਵਧੇਰੇ ਖੁਦਮੁਖਤਿਆਰ AI ਐਪਲੀਕੇਸ਼ਨਾਂ ਨੂੰ ਤੈਨਾਤ ਕਰਦੇ ਹਨ।
Fireworks 2024 ਵਿੱਚ ਮਾਲੀਆ ਵਾਧੇ ਵਿੱਚ 600% ਵਾਧੇ ਦੀ ਰਿਪੋਰਟ ਕਰਦਾ ਹੈ। ਇਸਦੇ ਗਾਹਕ ਅਧਾਰ ਵਿੱਚ Verizon, DoorDash, Uber, Quora, ਅਤੇ Upwork ਵਰਗੀਆਂ ਪ੍ਰਮੁੱਖ ਕੰਪਨੀਆਂ ਸ਼ਾਮਲ ਹਨ।
2. Snorkel AI
ਉੱਦਮਾਂ ਨੂੰ ਇਹ ਅਹਿਸਾਸ ਹੋ ਗਿਆ ਹੈ ਕਿ ਉਹਨਾਂ ਦੇ AI ਸਿਸਟਮਾਂ ਦੀ ਪ੍ਰਭਾਵਸ਼ੀਲਤਾ ਉਹਨਾਂ ਦੇ ਡੇਟਾ ਦੀ ਗੁਣਵੱਤਾ ਨਾਲ ਸਿੱਧੇ ਤੌਰ ‘ਤੇ ਜੁੜੀ ਹੋਈ ਹੈ। Snorkel AI ਨੇ ਉੱਦਮਾਂ ਨੂੰ AI ਮਾਡਲਾਂ ਵਿੱਚ ਵਰਤੋਂ ਲਈ ਉਹਨਾਂ ਦੇ ਮਲਕੀਅਤ ਡੇਟਾ ਨੂੰ ਤਿਆਰ ਕਰਨ ਵਿੱਚ ਸਹਾਇਤਾ ਕਰਕੇ ਇੱਕ ਵਧਦਾ-ਫੁੱਲਦਾ ਕਾਰੋਬਾਰ ਬਣਾਇਆ ਹੈ। ਕੰਪਨੀ ਦਾ Snorkel Flow AI ਡੇਟਾ ਡਿਵੈਲਪਮੈਂਟ ਪਲੇਟਫਾਰਮ ਕੰਪਨੀਆਂ ਨੂੰ ਉਹਨਾਂ ਦੇ ਮਲਕੀਅਤ ਡੇਟਾ ਨੂੰ ਲੇਬਲ ਕਰਨ ਅਤੇ ਕਿਊਰੇਟ ਕਰਨ ਲਈ ਇੱਕ ਲਾਗਤ-ਪ੍ਰਭਾਵਸ਼ਾਲੀ ਤਰੀਕਾ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ, ਜਿਸ ਨਾਲ ਉਹਨਾਂ ਦੀਆਂ ਖਾਸ ਕਾਰੋਬਾਰੀ ਲੋੜਾਂ ਲਈ AI ਮਾਡਲਾਂ ਨੂੰ ਅਨੁਕੂਲਿਤ ਕਰਨ ਅਤੇ ਮੁਲਾਂਕਣ ਕਰਨ ਵਿੱਚ ਇਸਦੀ ਵਰਤੋਂ ਨੂੰ ਸਮਰੱਥ ਬਣਾਇਆ ਜਾ ਸਕਦਾ ਹੈ।
2024 ਵਿੱਚ, Snorkel ਨੇ ਚਿੱਤਰਾਂ ਨੂੰ ਸ਼ਾਮਲ ਕਰਨ ਲਈ ਆਪਣਾ ਸਮਰਥਨ ਵਧਾਇਆ, ਜਿਸ ਨਾਲ ਕੰਪਨੀਆਂ ਨੂੰ ਉਹਨਾਂ ਦੇ ਆਪਣੇ ਮਲਕੀਅਤ ਚਿੱਤਰਾਂ ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਮਲਟੀਮੋਡਲ AI ਮਾਡਲਾਂ ਅਤੇ ਚਿੱਤਰ ਜਨਰੇਟਰਾਂ ਨੂੰ ਸਿਖਲਾਈ ਦੇਣ ਦੀ ਇਜਾਜ਼ਤ ਦਿੱਤੀ ਗਈ। ਇਸਨੇ ਆਪਣੀ ਪਲੇਟਫਾਰਮ ਵਿੱਚ ਰੀਟ੍ਰੀਵਲ ਔਗਮੈਂਟੇਡ ਜਨਰੇਸ਼ਨ (RAG) ਨੂੰ ਵੀ ਸ਼ਾਮਲ ਕੀਤਾ, ਜਿਸ ਨਾਲ ਗਾਹਕਾਂ ਨੂੰ ਲੰਬੇ ਦਸਤਾਵੇਜ਼ਾਂ, ਜਿਵੇਂ ਕਿ ਮਲਕੀਅਤ ਗਿਆਨ ਅਧਾਰ ਸਮੱਗਰੀ, ਤੋਂ ਸਿਰਫ਼ ਸਭ ਤੋਂ ਢੁਕਵੇਂ ਭਾਗਾਂ ਨੂੰ AI ਸਿਖਲਾਈ ਵਿੱਚ ਵਰਤੋਂ ਲਈ ਪ੍ਰਾਪਤ ਕਰਨ ਦੇ ਯੋਗ ਬਣਾਇਆ ਗਿਆ। Snorkel Custom, ਇੱਕ ਨਵੀਂ, ਉੱਚ-ਸੰਪਰਕ ਸੇਵਾ ਪੱਧਰ, ਵਿੱਚ Snorkel ਦੇ ਮਸ਼ੀਨ ਸਿਖਲਾਈ ਮਾਹਰ ਪ੍ਰੋਜੈਕਟਾਂ ‘ਤੇ ਗਾਹਕਾਂ ਨਾਲ ਸਿੱਧੇ ਤੌਰ ‘ਤੇ ਸਹਿਯੋਗ ਕਰਦੇ ਹਨ।
Snorkel ਦੱਸਦਾ ਹੈ ਕਿ 2024 ਦੌਰਾਨ ਇਸਦੀ ਸਾਲ-ਦਰ-ਸਾਲ ਸਾਲਾਨਾ ਬੁਕਿੰਗ ਦੁੱਗਣੀ ਹੋ ਗਈ, ਪਿਛਲੇ ਤਿੰਨ ਸਾਲਾਂ ਵਿੱਚੋਂ ਹਰੇਕ ਲਈ ਸਾਲਾਨਾ ਬੁਕਿੰਗ ਵਿੱਚ ਤਿੰਨ-ਅੰਕਾਂ ਦਾ ਵਾਧਾ ਹੋਇਆ ਹੈ। ਕੰਪਨੀ ਦੇ ਅਨੁਸਾਰ, ਛੇ ਸਭ ਤੋਂ ਵੱਡੇ ਬੈਂਕ ਹੁਣ Snorkel Flow ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹਨ, ਜਿਸ ਵਿੱਚ Chubb, Wayfair, ਅਤੇ Experian ਵਰਗੇ ਬ੍ਰਾਂਡ ਸ਼ਾਮਲ ਹਨ।
2. CalypsoAI
ਜਿਵੇਂ ਕਿ AI ਨਾਜ਼ੁਕ ਫੈਸਲੇ ਲੈਣ ਦੀਆਂ ਪ੍ਰਕਿਰਿਆਵਾਂ ਵਿੱਚ ਵੱਧਦੀ ਮਹੱਤਵਪੂਰਨ ਭੂਮਿਕਾ ਨਿਭਾਉਂਦਾ ਹੈ, ਉ