Tag: AIGC

छोटा AI चैलेंजर: बड़ी क्षमता

Alibaba की Qwen टीम ने कुशल AI मॉडल QwQ-32B पेश किया, जो कम संसाधनों में प्रभावशाली प्रदर्शन करता है। यह AI शक्ति और दक्षता को संतुलित करने में एक महत्वपूर्ण प्रगति है।

छोटा AI चैलेंजर: बड़ी क्षमता

मेटा के खिलाफ लेखकों का कॉपीराइट मुकदमा आगे बढ़ा

एक संघीय न्यायाधीश ने मेटा के खिलाफ कॉपीराइट उल्लंघन के मुकदमे को आगे बढ़ाने की अनुमति दी, जो AI मॉडल को प्रशिक्षित करने के लिए कॉपीराइट सामग्री के उपयोग से संबंधित है, मुकदमे के एक हिस्से को खारिज करते हुए।

मेटा के खिलाफ लेखकों का कॉपीराइट मुकदमा आगे बढ़ा

यूनिहैक 2025: लॉजिटेक ऑस्ट्रेलिया के समर्थन से वापसी

यूनिहैक, ऑस्ट्रेलिया का सबसे बड़ा छात्र हैकाथॉन, 14 से 16 मार्च, 2025 तक लौटेगा। लॉजिटेक ऑस्ट्रेलिया की स्पॉन्सरशिप इसे और खास बनाती है। इसमें ऑस्ट्रेलिया और न्यूजीलैंड के 600 छात्र भाग लेंगे। यह 48 घंटे की प्रतियोगिता छात्रों को वेबसाइट, मोबाइल ऐप, वीडियो गेम और हार्डवेयर समाधान बनाने का मौका देती है।

यूनिहैक 2025: लॉजिटेक ऑस्ट्रेलिया के समर्थन से वापसी

मेटा के खिलाफ लेखकों के कॉपीराइट मुकदमे को जज ने दी मंजूरी

लेखकों के एक समूह ने मेटा पर मुकदमा दायर किया है, उनका आरोप है कि मेटा ने अपने LLaMA AI मॉडल को प्रशिक्षित करने के लिए उनकी पुस्तकों की कॉपीराइट सामग्री का उपयोग बिना अनुमति के किया। जज ने मुकदमे को आगे बढ़ाने की अनुमति दी, CDAFA दावे को खारिज करते हुए।

मेटा के खिलाफ लेखकों के कॉपीराइट मुकदमे को जज ने दी मंजूरी

पॉकेट नेटवर्क: AI एजेंट्स को सशक्त बनाना

पॉकेट नेटवर्क विकेंद्रीकृत बुनियादी ढांचा प्रदान करके Web3 AI एजेंटों को सशक्त बनाता है, जिससे डेटा एक्सेस, लागत दक्षता और स्केलेबिलिटी सुनिश्चित होती है। यह AI एजेंटों के प्रदर्शन को बढ़ाता है।

पॉकेट नेटवर्क: AI एजेंट्स को सशक्त बनाना

डीपसीक ने संसाधन-संचालित नवाचार का नेतृत्व किया

डीपसीक जैसी चीनी कंपनियाँ एक नए दृष्टिकोण के साथ कृत्रिम बुद्धिमत्ता के विकास में क्रांति ला रही हैं, जो पारंपरिक ओपन-सोर्स मॉडल के बजाय संसाधन उपलब्धता पर जोर देता है। यह बदलाव AI उपकरणों तक पहुँच को लोकतांत्रिक बना रहा है और वैश्विक तकनीकी क्षेत्र में चीन की भूमिका को फिर से परिभाषित कर रहा है।

डीपसीक ने संसाधन-संचालित नवाचार का नेतृत्व किया

फॉक्सकॉन का फॉक्सब्रेन: पारंपरिक चीनी एलएलएम

फॉक्सकॉन ने पारंपरिक चीनी भाषा के लिए एक बड़ा भाषा मॉडल (LLM), फॉक्सब्रेन पेश किया। मेटा के Llama 3.1 आर्किटेक्चर और एनवीडिया के GPU पर निर्मित, यह ओपन-सोर्स इनोवेशन के प्रति फॉक्सकॉन की प्रतिबद्धता को दर्शाता है, जो दक्षता और स्थानीय विशेषज्ञता पर जोर देता है।

फॉक्सकॉन का फॉक्सब्रेन: पारंपरिक चीनी एलएलएम

OpenAI का GPT-4.5: मामूली लाभ के साथ महंगा अपग्रेड

OpenAI ने हाल ही में GPT-4.5 का अनावरण किया, इसे अपना सबसे उन्नत AI मॉडल बताया। हालाँकि यह सटीकता, उपयोगकर्ता अनुभव और भावनात्मक बुद्धिमत्ता में सुधार का दावा करता है, मॉडल का स्वागत गुनगुना रहा है, मुख्य रूप से इसकी मूल्य निर्धारण संरचना के कारण। AI समुदाय एक ऐसे मॉडल के निहितार्थों से जूझ रहा है, जो अपने पूर्ववर्ती, GPT-4o से थोड़ा बेहतर होते हुए भी, काफी अधिक कीमत के साथ आता है।

OpenAI का GPT-4.5: मामूली लाभ के साथ महंगा अपग्रेड

अनियंत्रित बड़े भाषा मॉडल चिकित्सा उपकरण जैसा आउटपुट उत्पन्न करते हैं

यह अध्ययन दर्शाता है कि बड़े भाषा मॉडल (LLMs) विभिन्न परिदृश्यों में चिकित्सा उपकरण-आधारित निर्णय समर्थन के समान आउटपुट उत्पन्न कर सकते हैं। यदि LLMs को नैदानिक ​​अभ्यास में एकीकृत किया जाना है, तो नियामक निरीक्षण की आवश्यकता हो सकती है।

अनियंत्रित बड़े भाषा मॉडल चिकित्सा उपकरण जैसा आउटपुट उत्पन्न करते हैं

ओपन-सोर्स LLMs के युग में डेटा के लिए गुप्त युद्ध

ओपन-सोर्स लार्ज लैंग्वेज मॉडल्स (LLMs) जैसे DeepSeek और Ollama को अपनाने से डेटा सुरक्षा जोखिम बढ़ रहे हैं। NSFOCUS Xingyun Lab की एक रिपोर्ट में 2025 के पहले दो महीनों में LLMs से जुड़ी पांच महत्वपूर्ण डेटा उल्लंघनों पर प्रकाश डाला गया, जिसके परिणामस्वरूप संवेदनशील जानकारी लीक हुई।

ओपन-सोर्स LLMs के युग में डेटा के लिए गुप्त युद्ध