मलेशिया: चीन की ओपन-सोर्स एआई क्रांति
चीन के ओपन-सोर्स एआई के अवसर का लाभ उठाने के लिए मलेशिया की क्षमता, नीति अपडेट और राष्ट्रीय सुरक्षा।
चीन के ओपन-सोर्स एआई के अवसर का लाभ उठाने के लिए मलेशिया की क्षमता, नीति अपडेट और राष्ट्रीय सुरक्षा।
डीपसीक-आर1 ने भाषा मॉडल में तर्क क्षमताओं को बढ़ाया, अनुसंधान और विकास को गति दी, और नवाचार को बढ़ावा दिया।
OpenAI ने o4-mini मॉडल के लिए रीइन्फोर्समेंट फाइन-ट्यूनिंग शुरू की है। अब संगठन अपने अनुरूप मॉडल बना सकते हैं। यह एआई को Enterprise के डीएनए के अनुरूप बनाने जैसा है।
ज्ञान आसवन एक तकनीक है जो बड़े AI मॉडलों को छोटे मॉडलों को ज्ञान सिखाती है, दक्षता बढ़ाती है।
Nvidia के Llama-Nemotron मॉडल ने DeepSeek-R1 को पीछे छोड़ा। 140,000 H100 ट्रेनिंग घंटे उपयोग किए गए। मॉडल अब ओपन-सोर्स है।
DeepSeek-R2 अभी तक नहीं आया है, लेकिन Microsoft के छोटे मॉडल प्रभावशाली तर्क क्षमताओं का प्रदर्शन कर रहे हैं, जो एक आश्चर्यजनक रूप से छोटे डेटासेट पर प्रशिक्षित हैं।
मेटा का LlamaCon बड़े भाषा मॉडल (LLM) और मल्टीमॉडल अनुप्रयोगों पर केंद्रित था। घटनाक्रम ने भविष्य की दिशा का पता लगाने के लिए एक मंच प्रदान किया, हालाँकि इसमें कोई नया मॉडल पेश नहीं किया गया।
डीपसीक, एक उभरती हुई चीनी AI स्टार्टअप है, जो रियायती फाउंडेशन मॉडल के साथ AI को सस्ता बना रही है, जिससे व्यवसायों के लिए AI को अपनाना आसान हो जाएगा।
माइक्रोसॉफ्ट रिसर्च ने Phi-4-रीजनिंग-प्लस मॉडल जारी किया है। यह मॉडल गहन तर्क वाले कार्यों के लिए बनाया गया है और गणित, विज्ञान और कोडिंग में बेहतर प्रदर्शन करता है।
यह लेख Amazon Bedrock के माध्यम से Amazon Nova मॉडल का उपयोग करके उपकरण उपयोग को अनुकूलित करने के तकनीकी पहलुओं पर प्रकाश डालता है।