छोटा AI चैलेंजर: बड़ी क्षमता
Alibaba की Qwen टीम ने कुशल AI मॉडल QwQ-32B पेश किया, जो कम संसाधनों में प्रभावशाली प्रदर्शन करता है। यह AI शक्ति और दक्षता को संतुलित करने में एक महत्वपूर्ण प्रगति है।
Alibaba की Qwen टीम ने कुशल AI मॉडल QwQ-32B पेश किया, जो कम संसाधनों में प्रभावशाली प्रदर्शन करता है। यह AI शक्ति और दक्षता को संतुलित करने में एक महत्वपूर्ण प्रगति है।
एक संघीय न्यायाधीश ने मेटा के खिलाफ कॉपीराइट उल्लंघन के मुकदमे को आगे बढ़ाने की अनुमति दी, जो AI मॉडल को प्रशिक्षित करने के लिए कॉपीराइट सामग्री के उपयोग से संबंधित है, मुकदमे के एक हिस्से को खारिज करते हुए।
यूनिहैक, ऑस्ट्रेलिया का सबसे बड़ा छात्र हैकाथॉन, 14 से 16 मार्च, 2025 तक लौटेगा। लॉजिटेक ऑस्ट्रेलिया की स्पॉन्सरशिप इसे और खास बनाती है। इसमें ऑस्ट्रेलिया और न्यूजीलैंड के 600 छात्र भाग लेंगे। यह 48 घंटे की प्रतियोगिता छात्रों को वेबसाइट, मोबाइल ऐप, वीडियो गेम और हार्डवेयर समाधान बनाने का मौका देती है।
लेखकों के एक समूह ने मेटा पर मुकदमा दायर किया है, उनका आरोप है कि मेटा ने अपने LLaMA AI मॉडल को प्रशिक्षित करने के लिए उनकी पुस्तकों की कॉपीराइट सामग्री का उपयोग बिना अनुमति के किया। जज ने मुकदमे को आगे बढ़ाने की अनुमति दी, CDAFA दावे को खारिज करते हुए।
पॉकेट नेटवर्क विकेंद्रीकृत बुनियादी ढांचा प्रदान करके Web3 AI एजेंटों को सशक्त बनाता है, जिससे डेटा एक्सेस, लागत दक्षता और स्केलेबिलिटी सुनिश्चित होती है। यह AI एजेंटों के प्रदर्शन को बढ़ाता है।
डीपसीक जैसी चीनी कंपनियाँ एक नए दृष्टिकोण के साथ कृत्रिम बुद्धिमत्ता के विकास में क्रांति ला रही हैं, जो पारंपरिक ओपन-सोर्स मॉडल के बजाय संसाधन उपलब्धता पर जोर देता है। यह बदलाव AI उपकरणों तक पहुँच को लोकतांत्रिक बना रहा है और वैश्विक तकनीकी क्षेत्र में चीन की भूमिका को फिर से परिभाषित कर रहा है।
फॉक्सकॉन ने पारंपरिक चीनी भाषा के लिए एक बड़ा भाषा मॉडल (LLM), फॉक्सब्रेन पेश किया। मेटा के Llama 3.1 आर्किटेक्चर और एनवीडिया के GPU पर निर्मित, यह ओपन-सोर्स इनोवेशन के प्रति फॉक्सकॉन की प्रतिबद्धता को दर्शाता है, जो दक्षता और स्थानीय विशेषज्ञता पर जोर देता है।
OpenAI ने हाल ही में GPT-4.5 का अनावरण किया, इसे अपना सबसे उन्नत AI मॉडल बताया। हालाँकि यह सटीकता, उपयोगकर्ता अनुभव और भावनात्मक बुद्धिमत्ता में सुधार का दावा करता है, मॉडल का स्वागत गुनगुना रहा है, मुख्य रूप से इसकी मूल्य निर्धारण संरचना के कारण। AI समुदाय एक ऐसे मॉडल के निहितार्थों से जूझ रहा है, जो अपने पूर्ववर्ती, GPT-4o से थोड़ा बेहतर होते हुए भी, काफी अधिक कीमत के साथ आता है।
यह अध्ययन दर्शाता है कि बड़े भाषा मॉडल (LLMs) विभिन्न परिदृश्यों में चिकित्सा उपकरण-आधारित निर्णय समर्थन के समान आउटपुट उत्पन्न कर सकते हैं। यदि LLMs को नैदानिक अभ्यास में एकीकृत किया जाना है, तो नियामक निरीक्षण की आवश्यकता हो सकती है।
ओपन-सोर्स लार्ज लैंग्वेज मॉडल्स (LLMs) जैसे DeepSeek और Ollama को अपनाने से डेटा सुरक्षा जोखिम बढ़ रहे हैं। NSFOCUS Xingyun Lab की एक रिपोर्ट में 2025 के पहले दो महीनों में LLMs से जुड़ी पांच महत्वपूर्ण डेटा उल्लंघनों पर प्रकाश डाला गया, जिसके परिणामस्वरूप संवेदनशील जानकारी लीक हुई।