ਸਰਵਮ AI ਦਾ 24B-ਪੈਰਾਮੀਟਰ LLM: ਵੱਡਾ ਕਦਮ
ਸਰਵਮ AI ਨੇ ਭਾਰਤੀ ਭਾਸ਼ਾਵਾਂ ਅਤੇ ਤਰਕ ਲਈ 24B-ਪੈਰਾਮੀਟਰ LLM ਲਾਂਚ ਕੀਤਾ, ਜੋ ਕਿ Mistral Small 'ਤੇ ਆਧਾਰਿਤ ਹੈ ਅਤੇ ਸੁਪਰਵਾਈਜ਼ਡ ਫਾਈਨ-ਟਿਊਨਿੰਗ ਅਤੇ ਰੀਇਨਫੋਰਸਮੈਂਟ ਲਰਨਿੰਗ ਨਾਲ ਬਿਹਤਰ ਬਣਾਇਆ ਗਿਆ ਹੈ।
ਸਰਵਮ AI ਨੇ ਭਾਰਤੀ ਭਾਸ਼ਾਵਾਂ ਅਤੇ ਤਰਕ ਲਈ 24B-ਪੈਰਾਮੀਟਰ LLM ਲਾਂਚ ਕੀਤਾ, ਜੋ ਕਿ Mistral Small 'ਤੇ ਆਧਾਰਿਤ ਹੈ ਅਤੇ ਸੁਪਰਵਾਈਜ਼ਡ ਫਾਈਨ-ਟਿਊਨਿੰਗ ਅਤੇ ਰੀਇਨਫੋਰਸਮੈਂਟ ਲਰਨਿੰਗ ਨਾਲ ਬਿਹਤਰ ਬਣਾਇਆ ਗਿਆ ਹੈ।
SK ਟੈਲੀਕਾਮ ਨੇ A.X 4.0 ਲਾਂਚ ਕੀਤਾ, ਇੱਕ LLM ਜੋ ਕੋਰੀਆਈ ਭਾਸ਼ਾ ਸਿੱਖਣ 'ਤੇ ਅਧਾਰਤ ਹੈ। ਇਹ ਮਾਡਲ, AOTX 4.1, ਮਈ ਦੇ ਅੰਤ ਤੱਕ ਜਾਰੀ ਕੀਤਾ ਜਾਵੇਗਾ।
ਡੀਮਾਈਂਡ ਨੇ ਵੈੱਬ3 ਐਪਲੀਕੇਸ਼ਨਾਂ ਲਈ ਇੱਕ ਓਪਨ-ਸੋਰਸ ਵੱਡਾ ਭਾਸ਼ਾਈ ਮਾਡਲ DMind-1 ਜਾਰੀ ਕੀਤਾ ਹੈ। ਇਹ ਮਾਡਲ Qwen3-32B 'ਤੇ ਆਧਾਰਿਤ ਹੈ ਅਤੇ Web3 ਸ਼੍ਰੇਣੀਆਂ ਵਿੱਚ SOTA ਪ੍ਰਦਰਸ਼ਨ ਕਰਦਾ ਹੈ।
ਅਲੀਬਾਬਾ ਨੇ ZEROSEARCH ਤਕਨੀਕ ਨਾਲ AI ਸਿਖਲਾਈ ਦੀ ਲਾਗਤ 90% ਘਟਾਉਣ ਦਾ ਦਾਅਵਾ ਕੀਤਾ ਹੈ। ਇਹ ਤਕਨੀਕ ਬਿਨਾਂ API ਕਾਲਾਂ ਦੇ ਖੋਜਾਂ ਕਰਦੀ ਹੈ।
ਸ਼ੰਘਾਈ ਦੇ ਇੱਕ ਕੁਆਂਟੀਟੇਟਿਵ ਟਰੇਡਿੰਗ ਫੰਡ ਨੇ AI ਕਮਿਊਨਿਟੀ ਵਿੱਚ ਇੱਕ ਨਵੀਂ ਸਿਖਲਾਈ ਤਕਨੀਕ ਪੇਸ਼ ਕੀਤੀ ਹੈ, ਜੋ ਕਿ DeepSeek 2.0 ਨੂੰ ਵੀ ਪਛਾੜ ਸਕਦੀ ਹੈ।
ਮਿਸਟ੍ਰਲ AI ਨੇ ਮੀਡੀਅਮ 3 ਲਾਂਚ ਕੀਤਾ, ਜੋ ਕਿ ਐਂਟਰਪ੍ਰਾਈਜ਼ਾਂ ਲਈ ਤਿਆਰ ਕੀਤਾ ਗਿਆ ਇੱਕ ਸ਼ਕਤੀਸ਼ਾਲੀ ਭਾਸ਼ਾਈ ਮਾਡਲ ਹੈ, ਜੋ ਘੱਟ ਲਾਗਤ, ਉੱਚ ਪ੍ਰਦਰਸ਼ਨ ਅਤੇ ਅਨੁਕੂਲਤਾ ਪ੍ਰਦਾਨ ਕਰਦਾ ਹੈ।
ਜੋਈ ਕਨਵੇਅ ਦੇ ਨਾਲ ਐਨਵੀਡੀਆ ਦੇ ਲਾਮਾ ਨੇਮੇਟ੍ਰੋਨ ਅਲਟਰਾ ਅਤੇ ਪੈਰਾਕੀਟ 'ਤੇ ਇੰਟਰਵਿਊ। ਓਪਨ-ਸੋਰਸ LLMs ਅਤੇ ASR ਵਿੱਚ ਤਰੱਕੀ।
ਫਾਈ-4 ਤਰਕ ਪਲੱਸ, ਮਾਈਕਰੋਸਾਫਟ ਦੇ ਓਪਨ ਸੋਰਸ AI ਮਾਡਲ ਦੀ ਤਾਕਤ ਦਿਖਾਉਂਦਾ ਹੈ। ਇਹ ਮਾਡਲ ਮਜ਼ਬੂਤੀ ਨਾਲ ਸਿੱਖਣ (RL) ਦੇ ਨਾਲ ਟੈਸਟਾਂ ਵਿੱਚ ਵਧੀਆ ਨਤੀਜੇ ਦਿੰਦਾ ਹੈ।
ਗੂਗਲ ਦੇ ਓਪਨ ਏਆਈ ਮਾਡਲ, ਜੇਮਾ, ਨੇ 150 ਮਿਲੀਅਨ ਤੋਂ ਵੱਧ ਡਾਊਨਲੋਡਾਂ ਦਾ ਅੰਕੜਾ ਪਾਰ ਕਰ ਲਿਆ ਹੈ। ਇਹ ਸਫਲਤਾ ਜੇਮਾ ਦੀ ਵੱਧਦੀ ਲੋਕਪ੍ਰਿਯਤਾ ਨੂੰ ਦਰਸਾਉਂਦੀ ਹੈ। ਪਰ ਕੀ ਇਹ ਮੇਟਾ ਦੇ ਲਲਾਮਾ ਨੂੰ ਪਛਾੜ ਸਕਦਾ ਹੈ?
ਨਮੇਟ੍ਰੋਨ-ਟੂਲ-N1, LLM ਟੂਲ ਵਰਤੋਂ ਵਿੱਚ ਇੱਕ ਨਵਾਂ ਤਰੀਕਾ, ਰੀਇਨਫੋਰਸਮੈਂਟ ਲਰਨਿੰਗ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ, ਜੋ ਕਿ ਇੱਕ ਵੱਡੀ ਤਬਦੀਲੀ ਹੈ।