ਡੀਪਸੀਕ-ਆਰ1 ਪ੍ਰਭਾਵ: ਇੱਕ ਪ੍ਰੇਰਕ
ਡੀਪਸੀਕ-ਆਰ1 ਨੇ ਤਰਕ-ਸਮਰੱਥ ਭਾਸ਼ਾ ਮਾਡਲ ਨਵੀਨਤਾ ਨੂੰ ਤੇਜ਼ ਕੀਤਾ, ਘੱਟ ਸਰੋਤਾਂ ਨਾਲ ਮਜ਼ਬੂਤ ਪ੍ਰਦਰਸ਼ਨ ਪ੍ਰਦਾਨ ਕੀਤਾ।
ਡੀਪਸੀਕ-ਆਰ1 ਨੇ ਤਰਕ-ਸਮਰੱਥ ਭਾਸ਼ਾ ਮਾਡਲ ਨਵੀਨਤਾ ਨੂੰ ਤੇਜ਼ ਕੀਤਾ, ਘੱਟ ਸਰੋਤਾਂ ਨਾਲ ਮਜ਼ਬੂਤ ਪ੍ਰਦਰਸ਼ਨ ਪ੍ਰਦਾਨ ਕੀਤਾ।
OpenAI ਨੇ ਥਰਡ-ਪਾਰਟੀ ਸਾਫਟਵੇਅਰ ਡਿਵੈਲਪਰਾਂ ਨੂੰ o4-mini ਲੈਂਗੂਏਜ ਰੀਜਨਿੰਗ ਮਾਡਲ ਲਈ ਰੀਇਨਫੋਰਸਮੈਂਟ ਫਾਈਨ-ਟਿਊਨਿੰਗ (RFT) ਦੀ ਵਰਤੋਂ ਕਰਨ ਦੀ ਇਜਾਜ਼ਤ ਦਿੱਤੀ ਹੈ। ਇਹ ਕੰਪਨੀਆਂ ਨੂੰ ਆਪਣੇ ਕਾਰਜਾਂ, ਸ਼ਬਦਾਵਲੀ, ਟੀਚਿਆਂ ਅਤੇ ਕਰਮਚਾਰੀਆਂ ਮੁਤਾਬਕ ਮਾਡਲ ਬਣਾਉਣ ਵਿੱਚ ਮਦਦ ਕਰਦਾ ਹੈ।
ਵੇਖੋ ਕਿ ਕਿਵੇਂ ਤਾਕਤਵਰ AI ਮਾਡਲ ਆਪਣਾ ਗਿਆਨ ਛੋਟੇ, ਕੁਸ਼ਲ ਮਾਡਲਾਂ ਨੂੰ ਦਿੰਦੇ ਹਨ, ਜਿਸ ਨਾਲ ਕਾਰਗੁਜ਼ਾਰੀ ਵਿੱਚ ਸੁਧਾਰ ਹੁੰਦਾ ਹੈ।
Nvidia ਦੇ Llama-Nemotron ਸੀਰੀਜ਼ ਮਾਡਲ DeepSeek-R1 ਤੋਂ ਵੀ ਬਿਹਤਰ ਹਨ, ਜਿਨ੍ਹਾਂ ਨੂੰ 140,000 H100 ਘੰਟੇ ਲੱਗੇ।
DeepSeek-R2 ਅਜੇ ਦੂਰ ਹੈ, ਪਰ Microsoft ਦੇ ਛੋਟੇ ਮਾਡਲ, ਹੈਰਾਨੀਜਨਕ ਢੰਗ ਨਾਲ 6,000 ਨਮੂਨਿਆਂ 'ਤੇ ਸਿਖਲਾਈ ਪ੍ਰਾਪਤ, ਸ਼ਾਨਦਾਰ ਤਰਕ ਸਮਰੱਥਾ ਦਿਖਾ ਰਹੇ ਹਨ।
ਮੈਟਾ ਦੀ LlamaCon ਕਾਨਫਰੰਸ ਵੱਡੇ ਭਾਸ਼ਾ ਮਾਡਲਾਂ (LLMs) ਅਤੇ ਮਲਟੀਮੋਡਲ ਐਪਲੀਕੇਸ਼ਨਾਂ 'ਤੇ ਵਿਚਾਰ ਵਟਾਂਦਰੇ ਲਈ ਇੱਕ ਕੇਂਦਰ ਸੀ। ਇਸ ਈਵੈਂਟ ਵਿੱਚ ਕੋਈ ਨਵਾਂ ਮਾਡਲ ਪੇਸ਼ ਨਹੀਂ ਕੀਤਾ ਗਿਆ, ਪਰ ਇਸ ਤਕਨਾਲੋਜੀ ਦੇ ਭਵਿੱਖ ਦੀ ਦਿਸ਼ਾ ਦੀ ਪੜਚੋਲ ਕਰਨ ਲਈ ਇੱਕ ਪਲੇਟਫਾਰਮ ਪ੍ਰਦਾਨ ਕੀਤਾ ਗਿਆ।
ਡੀਪਸੀਕ ਨੇ ਘੱਟ ਕੀਮਤ ਵਾਲੇ ਮਾਡਲਾਂ ਨਾਲ ਧੂਮ ਮਚਾਈ ਹੈ। ਇਹ ਕਦਮ ਕੀਮਤ ਨੂੰ ਘਟਾ ਕੇ ਵਪਾਰਾਂ ਲਈ ਏਆਈ ਨੂੰ ਅਪਣਾਉਣ 'ਚ ਮਦਦ ਕਰ ਸਕਦਾ ਹੈ। ਏਆਈ ਐਪਲੀਕੇਸ਼ਨਾਂ ਦੀ ਉੱਚ ਕੀਮਤ ਇਸਦੇ ਫੈਲਾਅ 'ਚ ਰੁਕਾਵਟ ਹੈ। ਘੱਟ ਕੀਮਤਾਂ ਵਧੇਰੇ ਅਪਣਾਉਣ ਵੱਲ ਲੈ ਜਾ ਸਕਦੀਆਂ ਹਨ।
ਮਾਈਕਰੋਸਾਫਟ ਦਾ ਫਾਈ-4-ਰੀਜ਼ਨਿੰਗ-ਪਲੱਸ ਇੱਕ ਖੁੱਲ੍ਹਾ ਭਾਰ ਵਾਲਾ ਭਾਸ਼ਾ ਮਾਡਲ ਹੈ, ਜੋ ਕਿ ਡੂੰਘੀ ਤਰਕ ਦੀ ਮੰਗ ਕਰਨ ਵਾਲੇ ਕੰਮਾਂ ਲਈ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਹੈ। ਇਹ ਮਾਡਲ ਗਣਿਤ, ਵਿਗਿਆਨ, ਕੋਡਿੰਗ ਅਤੇ ਤਰਕ-ਅਧਾਰਤ ਸਮੱਸਿਆਵਾਂ ਸਮੇਤ ਕਈ ਬੈਂਚਮਾਰਕਾਂ ਵਿੱਚ ਪ੍ਰਦਰਸ਼ਨ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਂਦਾ ਹੈ।
Amazon Nova ਮਾਡਲਾਂ ਨੂੰ ਸੰਸ਼ੋਧਿਤ ਕਰਕੇ ਟੂਲ ਦੀ ਵਰਤੋਂ ਨੂੰ ਬਿਹਤਰ ਬਣਾਓ, ਜੋ ਕਿ Amazon Bedrock ਦੁਆਰਾ ਸੰਭਵ ਹੈ।
OpenAI ਨੇ GPT-4.1 ਪੇਸ਼ ਕੀਤਾ, ਪਰ ਸੁਤੰਤਰ ਮੁਲਾਂਕਣਾਂ ਨੇ ਸੁਝਾਅ ਦਿੱਤਾ ਕਿ ਇਹ ਪਹਿਲਾਂ ਨਾਲੋਂ ਘੱਟ ਭਰੋਸੇਯੋਗ ਹੋ ਸਕਦਾ ਹੈ। ਇਹ AI ਵਿਕਾਸ ਦੀ ਦਿਸ਼ਾ ਬਾਰੇ ਸਵਾਲ ਉਠਾਉਂਦਾ ਹੈ, ਖਾਸ ਕਰਕੇ ਤਾਕਤ ਅਤੇ ਨੈਤਿਕਤਾ ਦੇ ਵਿਚਕਾਰ।