2. Nvidia
आर्टिफिशियल इंटेलिजेंस सिस्टम की बढ़ती मांग ने लार्ज लैंग्वेज मॉडल डेवलपर्स के लिए भारी निवेश को प्रेरित किया है। हालाँकि, एक कंपनी पहले से ही इस AI क्रांति का लाभ उठा रही है: Nvidia। अपने प्रभावशाली ग्राफ़िक्स प्रोसेसिंग यूनिट्स (GPUs) के साथ AI दौड़ को प्रज्वलित करने के बाद, Nvidia अब अपने अभूतपूर्व ब्लैकवेल प्रोसेसर और प्लेटफ़ॉर्म के साथ मानव-स्तर की इंटेलिजेंस की खोज का समर्थन करने के लिए पूरी तरह तैयार है।
ब्लैकवेल अपने पूर्ववर्ती, H100 को पीछे छोड़ देता है, जो सामान्य मॉडल-प्रशिक्षण कार्यों के लिए 2.5 गुना तक अधिक शक्ति प्रदान करता है, जबकि साथ ही काफी कम ऊर्जा की खपत करता है। प्रमुख डेटा सेंटर ऑपरेटर और AI लैब, जिनमें Google, Meta, Microsoft, OpenAI, Tesla और xAI जैसे उद्योग दिग्गज शामिल हैं, ने सैकड़ों-हजारों ब्लैकवेल GPU खरीदने की प्रतिबद्धता जताई है।
जबकि DeepSeek और Alibaba जैसी चीनी कंपनियों के हालिया मॉडलों ने पुराने, कम शक्तिशाली Nvidia GPU का उपयोग करके प्रभावशाली क्षमताएं प्रदर्शित की हैं, Nvidia केवल अपनी उपलब्धियों पर आराम नहीं कर रहा है। कंपनी सक्रिय रूप से विभिन्न अनुप्रयोगों के लिए प्लेटफ़ॉर्म विकसित कर रही है, जिसमें दवा की खोज (बायोफार्मा के लिए क्लारा) और स्वायत्त वाहन (ड्राइव AGX) से लेकर वीडियो उत्पादन (होलोस्कैन) और डिजिटल ट्विन्स (ओमनीवर्स) शामिल हैं। वास्तविक दुनिया के परिदृश्यों के एक विस्तृत स्पेक्ट्रम में AI प्रगति को बढ़ावा देकर, Nvidia रणनीतिक रूप से निरंतर विकास के लिए खुद को स्थापित कर रहा है, भले ही भविष्य के मॉडल कम कम्प्यूटेशनल शक्ति पर कम निर्भरता प्रदर्शित करें।
3. OpenAI
2019 से, OpenAI ने लगातार प्रशिक्षण डेटा और कंप्यूटिंग संसाधनों का विस्तार करके अपने मॉडलों को बढ़ाया है, एक ऐसी रणनीति जिसे उद्योग में व्यापक रूप से अपनाया गया है। हालाँकि, जैसे ही इस स्केलिंग दृष्टिकोण से घटते प्रतिफल स्पष्ट हो गए, OpenAI ने AGI प्राप्त करने के लिए एक नए रास्ते की आवश्यकता को पहचाना - ऐसे मॉडल जो अधिकांश कार्यों में मानव बुद्धि को पार करते हैं।
OpenAI का समाधान o1 मॉडल के रूप में आया। प्रीट्रेनिंग के दौरान केवल संसाधनों को बढ़ाने पर ध्यान केंद्रित करने के बजाय, OpenAI ने o1 को अनुमान के दौरान अधिक समय और कंप्यूटिंग शक्ति आवंटित करने के लिए इंजीनियर किया, वह चरण जहां मॉडल सक्रिय रूप से तैनात होता है और उपयोगकर्ता के संकेतों का जवाब देता है। इस प्रक्रिया के दौरान, o1 उपयोगकर्ता और प्रासंगिक डेटा स्रोतों दोनों से प्रासंगिक जानकारी एकत्र करता है और बनाए रखता है। यह उत्तर के लिए इष्टतम पथ निर्धारित करने के लिए एक परीक्षण-और-त्रुटि पद्धति का उपयोग करता है। परिणाम जटिल प्रश्नों के लिए पीएचडी-स्तर की प्रतिक्रियाओं का सृजन है, जो o1 को प्रदर्शन बेंचमार्क रैंकिंग के शीर्ष पर ले जाता है।
OpenAI, ChatGPT Plus सब्सक्राइबर्स को o1 के ‘प्रायोगिक’ और ‘मिनी’ संस्करण प्रदान करता है। इसके अतिरिक्त, ChatGPT Pro नामक एक प्रीमियम सेवा $200 प्रति माह पर पूर्ण o1 मॉडल तक असीमित पहुंच प्रदान करती है। दिसंबर 2024 में, OpenAI ने o1 के उत्तराधिकारी, o3 का अनावरण किया, और फरवरी 2025 में, भुगतान किए गए उपयोगकर्ताओं को o3-मिनी तक पहुंच प्रदान की, जो विज्ञान, गणित और कोडिंग के लिए अनुकूलित एक छोटा, तेज़ संस्करण है। OpenAI के नए रीजनिंग मॉडल का सबसे गहरा प्रभाव AGI की राह पर इंटेलिजेंस में और अधिक सफलता प्राप्त करने के लिए अनुमान के समय कंप्यूटिंग को बढ़ाने के एक आशाजनक रास्ते के रूप में सत्यापन है।
4. Google DeepMind
आज के चैटबॉट्स के लिए मार्ग प्रशस्त करने वाले मूलभूत शोध की उत्पत्ति 2010 के दशक के अंत में Google में हुई थी। Google ने ChatGPT के उभरने से बहुत पहले एक बड़े भाषा मॉडल-संचालित चैटबॉट विकसित किया था। हालाँकि, सुरक्षा, गोपनीयता और कानूनी निहितार्थों के बारे में चिंताओं के कारण कथित तौर पर एक सतर्क दृष्टिकोण अपनाया गया, जिससे इसकी सार्वजनिक रिलीज़ में देरी हुई। इस हिचकिचाहट के परिणामस्वरूप Google शुरू में ChatGPT के लॉन्च से शुरू हुई AI दौड़ में पीछे रह गया।
2024 में Google DeepMind के Gemini 2.0 की रिलीज़ ने Google के निश्चित पुनरुत्थान का संकेत दिया। Gemini 2.0 पहले मास-मार्केट AI मॉडल का प्रतिनिधित्व करता है जो स्वाभाविक रूप से मल्टीमॉडल है, जो छवियों, वीडियो, ऑडियो और कंप्यूटर कोड को टेक्स्ट के समान प्रवाह के साथ संसाधित और उत्पन्न करने में सक्षम है। यह क्षमता मॉडल को वीडियो क्लिप, या यहां तक कि फोन कैमरे से लाइव वीडियो फीड का विश्लेषण और तर्क करने में सक्षम बनाती है, उल्लेखनीय गति और सटीकता के साथ।
Gemini अन्य Google सेवाओं, जैसे मैप्स और सर्च को नियंत्रित करने की अपनी क्षमता के लिए भी खड़ा है। यह एकीकरण Google के रणनीतिक लाभ को प्रदर्शित करता है, जो अपने AI अनुसंधान को अपनी स्थापित सूचना और उत्पादकता उपकरणों के साथ जोड़ता है। Gemini पहले AI मॉडलों में से है जो स्वायत्त संचालन और उपयोगकर्ता की ओर से जटिल समस्याओं के माध्यम से तर्क करने की क्षमता का प्रदर्शन करता है। Gemini 2.0 फ्लैश थिंकिंग एक्सपेरिमेंटल मॉडल उपयोगकर्ताओं को उत्तर पर पहुंचने के लिए नियोजित विचार प्रक्रिया में अंतर्दृष्टि भी प्रदान करता है। इसके अलावा, दिसंबर में, Google ने प्रोजेक्ट मेरिनर पेश किया, जो एक जेमिनी-आधारित एजेंटिक AI सुविधा है जिसे ऑनलाइन किराने की खरीदारी जैसे कार्यों को स्वायत्त रूप से करने के लिए डिज़ाइन किया गया है।
5. Anthropic
जेनरेटिव AI के प्राथमिक अनुप्रयोग अब तक टेक्स्ट राइटिंग, सारांश और इमेज जेनरेशन के आसपास केंद्रित रहे हैं। अगला विकासवादी कदम बड़े भाषा मॉडल को तर्क क्षमताओं और उपकरणों का उपयोग करने की क्षमता से लैस करना शामिल है। एंथ्रोपिक के ‘कंप्यूटर यूज’ मॉडल ने इस भविष्य में एक प्रारंभिक झलक प्रदान की।
2024 में Claude 3.5 Sonnet से शुरू होकर, एंथ्रोपिक का मॉडल ऑन-स्क्रीन गतिविधि को समझ सकता है, जिसमें इंटरनेट सामग्री भी शामिल है। यह एक कर्सर में हेरफेर कर सकता है, बटन क्लिक कर सकता है और टेक्स्ट इनपुट कर सकता है। एक प्रदर्शन वीडियो ने क्लाउड की क्षमता को ब्राउज़र टैब में खुली वेबसाइटों पर उपलब्ध जानकारी का उपयोग करके एक फॉर्म पूरा करने के लिए प्रदर्शित किया। यह एक व्यक्तिगत वेबसाइट बनाने या एक दिन की यात्रा के लिए रसद का आयोजन करने जैसे कार्य कर सकता है। AI की स्वायत्त क्रियाएं, जैसे नए टैब खोलना, खोज करना और डेटा फ़ील्ड भरना, वास्तव में उल्लेखनीय हैं।
जबकि मॉडल वर्तमान में धीमी गति से काम करता है और हमेशा सही उत्तर नहीं दे सकता है, एंथ्रोपिक द्वारा अपनी सीमाओं की पहचान करने और उन्हें संबोधित करने के साथ तेजी से सुधार की उम्मीद है। Google के उपर्युक्त प्रोजेक्ट मेरिनर ने दिसंबर में एंथ्रोपिक का अनुसरण किया, और OpenAI ने जनवरी 2025 में अपना स्वयं का कंप्यूटर उपयोग मॉडल, ऑपरेटर पेश किया। फरवरी 2025 में, एंथ्रोपिक ने अपने अगले प्रमुख पुनरावृत्ति, क्लाउड 3.7 सॉनेट का अनावरण किया, जो एक बड़ा मॉडल है जो चुनौतीपूर्ण प्रश्नों के लिए स्वचालित रूप से तर्क मोड को संलग्न करने में सक्षम है।
6. Microsoft
Microsoft के Phi मॉडल का विकास 2023 में कंपनी के शोधकर्ताओं द्वारा पूछे गए एक मौलिक प्रश्न से उपजा है: “सबसे छोटा मॉडल आकार क्या है जो उभरती हुई बुद्धि के संकेत प्रदर्शित कर सकता है?” यह पूछताछ ‘छोटे भाषा मॉडल’ के विकास में एक महत्वपूर्ण क्षण था, जो सीमित मेमोरी, प्रसंस्करण शक्ति या कनेक्टिविटी वाले परिदृश्यों में इष्टतम प्रदर्शन के लिए डिज़ाइन किए गए मॉडल हैं, जहां तेजी से प्रतिक्रिया समय महत्वपूर्ण हैं।
2024 के दौरान, Microsoft ने छोटे मॉडलों की दो पीढ़ियों को जारी किया, जिन्होंने तर्क और तर्क क्षमताओं को प्रदर्शित किया जो प्रशिक्षण के दौरान स्पष्ट रूप से शामिल नहीं थे। अप्रैल में, कंपनी ने Phi-3 मॉडलों की एक श्रृंखला का अनावरण किया, जो भाषा, तर्क, कोडिंग और गणित बेंचमार्क में उत्कृष्ट थे, संभवतः महत्वपूर्ण रूप से बड़े और अधिक सक्षम LLM द्वारा उत्पन्न सिंथेटिक डेटा पर उनके प्रशिक्षण के कारण। ओपन-सोर्स Phi-3 के वेरिएंट को 2024 के दौरान Hugging Face पर 4.5 मिलियन से अधिक बार डाउनलोड किया गया था।
2024 के अंत में, Microsoft ने अपने Phi-4 छोटे भाषा मॉडल लॉन्च किए, जो तर्क-केंद्रित कार्यों में Phi-3 मॉडल से आगे निकल गए और यहां तक कि GPQA (वैज्ञानिक प्रश्न) और MATH बेंचमार्क पर OpenAI के GPT-4o से बेहतर प्रदर्शन किया। Microsoft ने मॉडल को ओपन-सोर्स और ओपन-वेट लाइसेंस के तहत जारी किया, जिससे डेवलपर्स को फोन या लैपटॉप के लिए एज मॉडल या एप्लिकेशन बनाने का अधिकार मिला। एक महीने से भी कम समय में, Phi-4 ने Hugging Face पर 375,000 डाउनलोड प्राप्त किए।
7. Amazon
Amazon AWS ने हाल ही में Trainium2 पेश किया, जो AI के लिए अपने Trainium प्रोसेसर का एक नया संस्करण है, जो संभावित रूप से विशिष्ट सेटिंग्स में Nvidia GPU के प्रभुत्व को चुनौती दे सकता है। Trainium2 को सबसे बड़े जेनरेटिव AI मॉडल के प्रशिक्षण और मॉडल परिनियोजन के बाद अनुमान-समय के संचालन के लिए आवश्यक विशाल कंप्यूटिंग शक्ति प्रदान करने के लिए इंजीनियर किया गया है। AWS का दावा है कि तुलनीय कार्यों के लिए GPU की तुलना में Trainium 30% से 40% अधिक लागत प्रभावी है।
Trainium2 पहले Trainium चिप में देखी गई शक्ति और सॉफ़्टवेयर एकीकरण की कमियों को संबोधित करता है, जिससे Amazon संभावित रूप से Nvidia के साथ अंतर को बंद कर सकता है। (यह ध्यान देने योग्य है कि AWS स्वयं GPU के लिए Nvidia पर बहुत अधिक निर्भर है।) Nvidia को विस्थापित करना एक कठिन चुनौती है क्योंकि ग्राहक Nvidia के CUDA सॉफ़्टवेयर परत के साथ लॉक-इन हैं, जो शोधकर्ताओं को इस बात पर बारीक नियंत्रण प्रदान करता है कि उनके मॉडल चिप के संसाधनों का उपयोग कैसे करते हैं। Amazon अपनी स्वयं की कर्नेल नियंत्रण सॉफ़्टवेयर परत, न्यूरॉन कर्नेल इंटरफ़ेस (NKI) प्रदान करता है, जो CUDA के समान, शोधकर्ताओं को चिप कर्नेल इंटरैक्शन पर बारीक नियंत्रण प्रदान करता है।
यह ध्यान रखना महत्वपूर्ण है कि Trainium2 का अभी तक बड़े पैमाने पर परीक्षण नहीं किया गया है। AWS वर्तमान में एंथ्रोपिक के लिए 400,000 Trainium2 चिप्स के साथ एक सर्वर क्लस्टर का निर्माण कर रहा है, जो बड़े पैमाने पर तैनाती में अपने AI चिप्स के प्रदर्शन को अनुकूलित करने में मूल्यवान अंतर्दृष्टि प्रदान कर सकता है।
8. Arm
ब्रिटिश सेमीकंडक्टर डिजाइनर Arm लंबे समय से फोन, सेंसर और IoT हार्डवेयर जैसे छोटे उपकरणों को शक्ति देने वाले चिप्स में उपयोग किए जाने वाले आर्किटेक्चर का एक प्रमुख प्रदाता रहा है। यह भूमिका उभरते युग में अधिक महत्व रखती है जहां एज डिवाइस चिप्स AI मॉडल को निष्पादित करेंगे। डेटा केंद्र भी इस विकास में महत्वपूर्ण भूमिका निभाएंगे, अक्सर सबसे अधिक मांग वाले AI प्रसंस्करण में से कुछ या सभी को संभालेंगे और एज उपकरणों को परिणाम वितरितकरेंगे।
जैसे-जैसे दुनिया भर में डेटा केंद्रों का प्रसार होता है, उनकी विद्युत ऊर्जा की खपत एक तेजी से दबाव वाली चिंता बन जाएगी। यह कारक Arm के नवीनतम Neoverse CPU आर्किटेक्चर में दक्षता पर जोर देने में योगदान देता है। कंपनी के अनुसार, यह पिछली पीढ़ियों की तुलना में 50% प्रदर्शन सुधार और प्रतिस्पर्धी x86 आर्किटेक्चर का उपयोग करने वाले प्रोसेसर की तुलना में प्रति वाट 20% बेहतर प्रदर्शन का दावा करता है।
Arm की रिपोर्ट है कि Amazon, Microsoft, Google और Oracle सभी ने सामान्य प्रयोजन कंप्यूटिंग और CPU-आधारित AI अनुमान और प्रशिक्षण दोनों के लिए Arm Neoverse को अपनाया है। उदाहरण के लिए, 2024 में, Microsoft ने घोषणा की कि क्लाउड के लिए डिज़ाइन किया गया उसका पहला कस्टम सिलिकॉन, कोबाल्ट 100 प्रोसेसर, Arm Neoverse पर बनाया गया था। कुछ सबसे बड़े AI डेटा केंद्र NVIDIA के ग्रेस हॉपर सुपरचिप पर निर्भर करेंगे, जो एक हॉपर GPU और Neoverse पर आधारित एक ग्रेस CPU को जोड़ती है। Arm इस साल अपना खुद का CPU लॉन्च करने वाला है, जिसमें Meta इसके शुरुआती ग्राहकों में से एक है।
9. Gretel
पिछले एक साल में, AI कंपनियों ने वेब से स्क्रैप किए गए डेटा की बढ़ती मात्रा के साथ अपने मॉडलों को प्रशिक्षित करने से घटते प्रतिफल का अनुभव किया है। नतीजतन, उन्होंने अपना ध्यान प्रशिक्षण डेटा की मात्रा से उसकी गुणवत्ता पर स्थानांतरित कर दिया है। इसने प्रकाशक भागीदारों से लाइसेंस प्राप्त गैर-सार्वजनिक और विशिष्ट सामग्री में वृद्धि हुई निवेश को जन्म दिया है। AI शोधकर्ताओं को अपने मानव-जनित या मानव-एनोटेटेड प्रशिक्षण डेटा के भीतर अंतराल या अंधे धब्बों को भी संबोधित करने की आवश्यकता है। इस उद्देश्य के लिए, उन्होंने विशेष AI मॉडल द्वारा उत्पन्न सिंथेटिक प्रशिक्षण डेटा की ओर रुख किया है।
Gretel ने 2024 में सिंथेटिक प्रशिक्षण डेटा के निर्माण और क्यूरेशन में विशेषज्ञता हासिल करके प्रमुखता हासिल की। कंपनी ने अपने प्रमुख उत्पाद, Gretel Navigator की सामान्य उपलब्धता की घोषणा की, जो डेवलपर्स को फाइन-ट्यूनिंग और परीक्षण के लिए सिंथेटिक प्रशिक्षण डेटासेट उत्पन्न करने, बढ़ाने, संपादित करने और क्यूरेट करने के लिए प्राकृतिक भाषा या SQL संकेतों का उपयोग करने में सक्षम बनाता है। प्लेटफ़ॉर्म ने पहले ही 150,000 से अधिक डेवलपर्स के एक समुदाय को आकर्षित किया है जिन्होंने प्रशिक्षण डेटा के 350 बिलियन से अधिक टुकड़ों को संश्लेषित किया है।
अन्य उद्योग के खिलाड़ियों ने Gretel की क्षमताओं पर ध्यान दिया है। Gretel ने Google के साथ भागीदारी की ताकि उसके सिंथेटिक प्रशिक्षण डेटा को Google क्लाउड ग्राहकों के लिए आसानी से सुलभ बनाया जा सके। जून में Databricks के साथ एक समान साझेदारी की घोषणा की गई, जिससे Databricks के एंटरप्राइज़ ग्राहकों को Databricks क्लाउड के भीतर चल रहे अपने मॉडलों के लिए सिंथेटिक प्रशिक्षण डेटा तक पहुंच प्रदान की गई।
10. Mistral AI
Mistral AI, जेनरेटिव AI क्षेत्र में फ्रांस का दावेदार, ने लगातार फ्रंटियर AI मॉडल विकास में सबसे आगे OpenAI, Anthropic और Google पर दबाव डाला है। Mistral AI ने 2024 में महत्वपूर्ण तकनीकी प्रगति को शामिल करते हुए नए मॉडलों की एक श्रृंखला जारी की, अपने API के प्रत्यक्ष विपणन और रणनीतिक साझेदारी दोनों के माध्यम से तेजी से व्यापार वृद्धि का प्रदर्शन किया।
वर्ष की शुरुआत में, कंपनी ने Mixtral नामक ओपन-सोर्स मॉडल की एक जोड़ी पेश की, जो ‘विशेषज्ञों के मिश्रण’ आर्किटेक्चर के अपने अभिनव उपयोग के लिए उल्लेखनीय है, जहां दक्षता बढ़ाने के लिए, एक क्वेरी को संभालने के लिए मॉडल के मापदंडों का केवल एक विशेष सबसेट लगाया जाता है। जुलाई 2024 में, Mistral ने Mistral Large 2 की घोषणा की, जिसने 123 बिलियन मापदंडों पर, कोड पीढ़ी, गणित, तर्क और फ़ंक्शन कॉलिंग में महत्वपूर्ण सुधार प्रदर्शित किए। फ्रांसीसी कंपनी ने Ministral 3B और Ministral 8B भी जारी किए, जो लैपटॉप या फोन पर निष्पादन के लिए डिज़ाइन किए गए छोटे मॉडल हैं, जो उपयोगकर्ता द्वारा प्रदान की गई प्रासंगिक जानकारी के लगभग 50 टेक्स्ट पेज संग्रहीत करने में सक्षम हैं।
Mistral ने OpenAI जैसी अमेरिकी AI कंपनियों के कम लागत और लचीले विकल्प के रूप में खुद को स्थापित करके यूरोप में सफलता हासिल की है। इसने 2024 के दौरान अमेरिकी उद्यम बाजार में अपना विस्तार भी जारी रखा। जून में, कंपनी ने उद्यम पूंजी फर्म जनरल कैटलिस्ट के नेतृत्व में $640 मिलियन का फंडिंग राउंड हासिल किया, जिससे Mistral का मूल्यांकन लगभग $6.2 बिलियन हो गया।
11. Fireworks AI
Fireworks एक कस्टम रनटाइम वातावरण प्रदान करता है जो AI परिनियोजन के लिए बुनियादी ढांचे के निर्माण से जुड़े अक्सर जटिल इंजीनियरिंग कार्य को सुव्यवस्थित करता है। Fireworks प्लेटफ़ॉर्म का उपयोग करके, उद्यम 100 से अधिक AI मॉडलों में से किसी को भी एकीकृत कर सकते हैं और फिर उन्हें अपने विशिष्ट उपयोग के मामलों के लिए अनुकूलित और फाइन-ट्यून कर सकते हैं।
कंपनी ने 2024 के दौरान नए उत्पादों को पेश किया जो इसे AI उद्योग में प्रमुख रुझानों का लाभ उठाने के लिए स्थान देंगे। सबसे पहले, डेवलपर्स AI-संचालित मॉडल और अनुप्रयोगों की जवाबदेही पर तेजी से ध्यान केंद्रित कर रहे हैं। Fireworks ने FireAttention V2, ऑप्टिमाइज़ेशन और क्वांटिज़ेशन सॉफ़्टवेयर की शुरुआत की जो मॉडल के प्रदर्शन को तेज करता है और नेटवर्क विलंबता को कम करता है। दूसरा, AI सिस्टम तेजी से ‘पाइपलाइन’ में विकसित हो रहे हैं जो API के माध्यम से विभिन्न मॉडलों और उपकरणों को लागू करते हैं। नया FireFunction V2 सॉफ़्टवेयर इन तेजी से जटिल प्रणालियों के भीतर सभी घटकों के लिए एक ऑर्केस्ट्रेटर के रूप में कार्य करता है, खासकर जब उद्यम अधिक स्वायत्त AI अनुप्रयोगों को तैनात करते हैं।
Fireworks ने 2024 में राजस्व वृद्धि में 600% की वृद्धि दर्ज की। इसके ग्राहक आधार में Verizon, DoorDash, Uber, Quora और Upwork जैसी प्रमुख कंपनियां शामिल हैं।
12. Snorkel AI
उद्यमों को यह एहसास हो गया है कि उनके AI सिस्टम की प्रभावशीलता सीधे उनके डेटा की गुणवत्ता से जुड़ी है। Snorkel AI ने उद्यमों को AI मॉडल में उपयोग के लिए अपने मालिकाना डेटा को तैयार करने में सहायता करके एक संपन्न व्यवसाय बनाया है। कंपनी का Snorkel Flow AI डेटा डेवलपमेंट प्लेटफ़ॉर्म कंपनियों को अपने मालिकाना डेटा को लेबल और क्यूरेट करने के लिए एक लागत-कुशल तरीका प्रदान करता है, जिससे उनके विशिष्ट व्यावसायिक जरूरतों के लिए AI मॉडल को अनुकूलित और मूल्यांकन करने में इसका उपयोग सक्षम होता है।
2024 में, Snorkel ने छवियों को शामिल करने के लिए अपना समर्थन बढ़ाया, जिससे कंपनियों को अपने स्वयं के मालिकाना चित्रों का उपयोग करके मल्टीमॉडल AI मॉडल और छवि जनरेटर को प्रशिक्षित करने की अनुमति मिली। इसने अपने प्लेटफ़ॉर्म में रिट्रीवल ऑगमेंटेड जेनरेशन (RAG) को भी शामिल किया, जिससे ग्राहक AI प्रशिक्षण में उपयोग के लिए मालिकाना ज्ञान आधार सामग्री जैसे लंबे दस्तावेजों से जानकारी के केवल सबसे प्रासंगिक खंडों को पुनः प्राप्त कर सकते हैं। Snorkel Custom, एक नई, उच्च-स्पर्श सेवा स्तर, में Snorkel के मशीन लर्निंग विशेषज्ञ सीधे ग्राहकों के साथ परियोजनाओं पर सहयोग करते हैं।
Snorkel का कहना है कि 2024 के दौरान इसकी साल-दर-साल वार्षिक बुकिंग दोगुनी हो गई, पिछले तीन वर्षों में से प्रत्येक के लिए वार्षिक बुकिंग में तीन अंकों की वृद्धि हुई। कंपनी के अनुसार, छह सबसे बड़े बैंक अब Snorkel Flow का उपयोग करते हैं, साथ ही Chubb, Wayfair और Experian जैसे ब्रांड भी।
13. CalypsoAI
जैसे-जैसे AI महत्वपूर्ण निर्णय लेने की प्रक्रियाओं में तेजी से महत्वपूर्ण भूमिका निभाता है, उद्यम मॉडलों के आंतरिक कामकाज में बढ़ी हुई दृश्यता की तलाश कर रहे हैं। यह आवश्यकता विशेष रूप से विनियमित उद्योगों में स्पष्ट है जिन्हें पूर्वाग्रह और अन्य अनपेक्षित आउटपुट के लिए लगातार निगरानी करनी चाहिए। CalypsoAI इस उभरती हुई आवश्यकता को पहचानने वाले पहले लोगों में से एक था और अपने AI अवसंरचना प्लेटफ़ॉर्म में बढ़ी हुई व्याख्यात्मकता सुविधाओं के साथ तेजी से प्रतिक्रिया दी।
जो चीज Calypso को अलग करती है, वह है इसकी अवलोकन तकनीक की चौड़ाई। 2024 में, कंपनी ने अपना AI सुरक्षा प्लेटफ़ॉर्म लॉन्च किया, जो एंटरप्राइज़ डेटा को सुरक्षित, ऑडिट और मॉनिटर करके सुरक्षित रखता है, जो एक कंपनी उपयोग कर रही हो, मॉडल विक्रेता की परवाह किए बिना या मॉडल आंतरिक रूप से या बाहरी रूप से होस्ट किया गया हो। Calypso ने नए विज़ुअलाइज़ेशन टूल भी पेश किए जो उपयोगकर्ताओं को वास्तविक समय में AI निर्णयों के अंतर्निहित तर्क का निरीक्षण करने की अनुमति देते हैं।
बाजार AI अवलोकन पर Calypso के जोर पर सकारात्मक प्रतिक्रिया दे रहा है। कंपनी ने 2024 के दौरान राजस्व में दस गुना वृद्धि दर्ज की और 2025 में पांच गुना वृद्धि की उम्मीद है।
14. Galileo
जबकि AI सिस्टम एक साल पहले की तुलना में तथ्यात्मक मतिभ्रम और पूर्वाग्रहों के कम उदाहरण प्रदर्शित करते हैं, वे इन मुद्दों के प्रति संवेदनशील रहते हैं। यह AI का उपयोग करने वाले किसी भी व्यवसाय के लिए एक महत्वपूर्ण चिंता का विषय है, खासकर स्वास्थ्य सेवा और बैंकिंग जैसे विनियमित क्षेत्रों में। AI विकास दल अपने मॉडल और अनुप्रयोगों की सटीकता को मापने, अनुकूलित करने और निगरानी करने के लिए Galileo के AI प्लेटफ़ॉर्म का उपयोग करते हैं।
2024 की शुरुआत में, दो साल के शोध के बाद, Galileo ने Luna जारी किया, जो हानिकारक आउटपुट की पहचान करने के लिए प्रशिक्षित मूल्यांकन मॉडल का एक सूट है। ये मॉडल Galileo के प्लेटफ़ॉर्म को एक LLM के काम की तेजी से जांच और स्कोर करने में सक्षम बनाते हैं क्योंकि यह उन टोकन को इकट्ठा करता है जो इसकी प्रतिक्रिया का गठन करते हैं। इस प्रक्रिया में लगभग 200 मिलीसेकंड लगते हैं, जिससे AI के आउटपुट को उपयोगकर्ता को प्रदर्शित होने से रोकने और रोकने के लिए पर्याप्त समय मिलता है। जबकि एक मानक LLM यह कार्य कर सकता है, यह काफी अधिक महंगा होगा। Galileo के उद्देश्य से निर्मित मॉडल बेहतर सटीकता, लागत-दक्षता और महत्वपूर्ण रूप से, गति प्रदान करते हैं।
Galileo ने 2024 में अपने ग्राहक आधार में चौगुनी वृद्धि दर्ज की, जिसमें Twilio, Reddit, Chegg, Comcast और JPMorgan Chase जैसे ग्राहक शामिल हैं। स्टार्टअप ने Hugging Face के सीईओ क्लेमेंट डेलैंग्यू जैसे निवेशकों से $68 मिलियन का फंडिंग राउंड भी हासिल किया।
15. Runway
AI के आसपास सबसे महत्वपूर्ण आकांक्षाओं और चिंताओं में से एक फिल्म निर्माण की कला और अर्थशास्त्र में क्रांति लाने के लिए पर्याप्त गुणवत्ता का वीडियो उत्पन्न करने की इसकी क्षमता है। प्रौद्योगिकी ने 2024 में इस भविष्य की ओर महत्वपूर्ण प्रगति की, जिसमें Runway, एक न्यूयॉर्क स्थित वीडियो पीढ़ी स्टार्टअप, ने एक प्रमुख भूमिका निभाई। जून 2024 में Runway के Gen-3 अल्फा मॉडल की रिलीज़ ने उत्पन्न वीडियो की काफी बेहतर विश्वसनीयता के लिए AI समुदाय के भीतर व्यापक प्रशंसा प्राप्त की।
Runway ने AI वीडियो के सौंदर्यशास्त्र को नियंत्रित करने के लिए अपने उपकरणों में प्रमुख संवर्द्धन भी लागू किए। मॉडल को छवियों और वीडियो दोनों पर प्रशिक्षित किया गया था और यह टेक्स्ट या छवि इनपुट के आधार पर वीडियो उत्पन्न कर सकता है। कंपनी ने बाद में Gen-3 अल्फा टर्बो जारी किया, जो Gen-3 का अधिक लागत-कुशल और तेज़ संस्करण है।
हॉलीवुड जेनरेटिव AI की प्रगति की बारीकी से निगरानी कर रहा है, और Runway की रिपोर्ट है कि इसने मनोरंजन उद्योग के खिलाड़ियों के लिए अपने मॉडलों के कस्टम संस्करणों का उत्पादन शुरू कर दिया है। इसने सितंबर 2024 में लायंसगेट स्टूडियोज के साथ एक औपचारिक साझेदारी में प्रवेश किया। Runway ने प्रोडक्शन कंपनी के लिए एक कस्टम मॉडल विकसित किया और इसे लायंसगेट की फिल्म सूची पर प्रशिक्षित किया। Runway का कहना है कि मॉडल का उद्देश्य लायंसगेट के फिल्म निर्माताओं, निर्देशकों और अन्य क्रिएटिव को ‘समय, धन और संसाधनों की बचत करते हुए’ उनके काम को ‘बढ़ाने’ में सहायता करना है। Runway का मानना है कि लायंसगेट के साथ इसकी व्यवस्था अन्य उत्पादन कंपनियों के साथ इसी तरह के सहयोग के लिए एक खाका के रूप में काम कर सकती है।
16. Cerebras Systems
AI सिस्टम, विशेष रूप से बड़े फ्रंटियर मॉडल, को बड़े पैमाने पर संचालित करने के लिए अत्यधिक कंप्यूटिंग शक्ति की आवश्यकता होती है। इसके लिए कार्यभार वितरित करने के लिए हजारों या लाखों चिप्स के परस्पर संबंध की आवश्यकता होती है। हालाँकि, चिप्स के बीच नेटवर्क कनेक्शन प्रदर्शन बाधाओं को पेश कर सकते हैं। Cerebras Systems की तकनीक को एक एकल, असाधारण रूप से बड़ी चिप पर कंप्यूटिंग शक्ति की एक विशाल मात्रा को एकीकृत करने के गति और दक्षता लाभों का दोहन करने के लिए डिज़ाइन किया गया है।
कंपनी का नवीनतम WSE-3 (तीसरी पीढ़ी का वेफर स्केल इंजन) चिप, उदाहरण के लिए, 814 वर्ग मिलीमीटर मापता है, जो एक डिनर प्लेट का आकार है, और Nvidia के बाजार-अग्रणी H100 चिप्स से 56 गुना बड़ा है। चिप में एक चौंका देने वाले 4 ट्रिलियन ट्रांजिस्टर शामिल हैं और यह 44 गीगाबिट मेमोरी प्रदान करता है। इन चिप्स को सुपरकंप्यूटर बनाने के लिए क्लस्टर किया जा सकता है, जैसे कि कोंडोर गैलेक्सी, परस्पर जुड़े सुपरकंप्यूटर का एक ‘नक्षत्र’ जिसे Cerebras अपने सबसे बड़े ग्राहक, G42, एक UAE-आधारित AI और क्लाउड कंप्यूटिंग कंपनी के सहयोग से विकसित कर रहा है।
आज तक, Cerebras ने बड़े अनुसंधान संगठनों में एक जगह पाई है, जिसमें मेयो क्लिनिक, सैंडिया नेशनल लेबोरेटरीज, लॉरेंस लिवरमोर नेशनल लेबोरेटरी और लॉस अलामोस नेशनल लेबोरेटरी शामिल हैं। कंपनी ने सितंबर 2024 में एक आईपीओ के लिए दायर किया। प्रोस्पेक्टस इंगित करता है कि कंपनी की बिक्री 2023 में तीन गुना से अधिक बढ़कर $78.7 मिलियन हो गई और 2024 की पहली छमाही में बढ़कर $136.4 मिलियन हो गई।