ॲमेझॉन नोव्हा मॉडेल्सचे उपयोजन वाढवणे

आजच्या तंत्रज्ञानाच्या जगात, मोठ्या भाषिक मॉडेल्स (LLMs) नैसर्गिक भाषा प्रक्रियेसाठी शक्तिशाली साधने बनले आहेत. तथापि, त्यांचे स्थिर प्रशिक्षण डेटावर अवलंबित्व वास्तविक परिस्थितींमध्ये जुळवून घेण्याची त्यांची क्षमता मर्यादित करते. निर्णय घेण्यास सक्षम असलेल्या AI सोल्यूशन्सची मागणी वाढत असल्यामुळे, बाह्य साधने आणि API चे एकत्रीकरण महत्त्वाचे ठरते. या साधनांचा उपयोग अचूकपणे करणे स्वायत्त एजंट्सच्या निर्णय क्षमतेत सुधारणा करण्यासाठी आणि कार्यात्मक कार्यक्षमतेसाठी महत्त्वपूर्ण आहे, ज्यामुळे अत्याधुनिक एजंटिक वर्कफ्लोच्या विकासाचा मार्ग मोकळा होतो.

या लेखात, ॲमेझॉन बेडरोकद्वारे ॲमेझॉन नोव्हा मॉडेल्स वापरून टूल कॉलिंगच्या तांत्रिक बाबींचा अभ्यास केला आहे. याव्यतिरिक्त, टूल उपयोजनात अधिक अचूकता प्राप्त करण्यासाठी या मॉडेल्सना सानुकूलित करण्याच्या विविध पद्धतींचा शोध घेतला जातो.

टूल वापरासह LLM क्षमतांचा विस्तार

LLMs ने नैसर्गिक भाषेच्या कार्यांमध्ये उल्लेखनीय प्राविण्य दर्शविले आहे. API आणि संगणकीय फ्रेमवर्कसारख्या बाह्य साधनांशी अखंड एकत्रीकरणामुळे त्यांची खरी क्षमता उघड होते. ही साधने LLMs ला रिअल-टाइम डेटा ॲक्सेस करण्याची, डोमेन-विशिष्ट गणना करण्याची आणि अचूक माहिती पुनर्प्राप्त करण्याची क्षमता देतात, ज्यामुळे त्यांची विश्वसनीयता आणि अष्टपैलुत्व वाढते.

उदाहरणार्थ, हवामान API च्या एकत्रीकरणामुळे LLMs अचूक आणि अद्ययावत हवामानाचा अंदाज देऊ शकतात. त्याचप्रमाणे, विकिपीडिया API LLMs ला माहितीच्या विस्तृत भांडारापर्यंत पोहोचण्यास सक्षम करते, ज्यामुळे त्यांना अधिक अचूकतेने जटिल प्रश्नांची उत्तरे देता येतात. वैज्ञानिक संदर्भांमध्ये, कॅल्क्युलेटर आणि सिम्बॉलिक इंजिनसारखी साधने LLMs ला संख्यात्मक त्रुटींवर मात करण्यास मदत करतात, ज्यामुळे ते जटिल गणितांसाठी अधिक विश्वसनीय बनतात.

या साधनांशी अखंडपणे एकत्रीकरण करून, LLMs हे मजबूत, डोमेन-जागरूक प्रणालींमध्ये विकसित होतात, जे वास्तविक जगात उपयुक्तता असलेल्या गतिशील आणि विशेष कार्ये हाताळण्यास सक्षम आहेत.

ॲमेझॉन नोव्हा मॉडेल्स आणि ॲमेझॉन बेडरोक

डिसेंबर 2024 मध्ये AWS re:Invent मध्ये सादर केलेले ॲमेझॉन नोव्हा मॉडेल्स, अपवादात्मक किंमत-कार्यप्रदर्शन मूल्य देण्यासाठी डिझाइन केलेले आहेत. ही मॉडेल्स खर्च-प्रभावीता राखून, मुख्य मजकूर-समज बेंचमार्कवर अत्याधुनिक कार्यप्रदर्शन देतात. या मालिकेत तीन प्रकार आहेत:

  • मायक्रो: अत्यंत कार्यक्षम कार्यप्रदर्शन देणारे, एज वापरासाठी ऑप्टिमाइझ केलेले हे फक्त-टेक्स्ट मॉडेल आहे.
  • लाइट: अष्टपैलुत्व आणि कार्यप्रदर्शन यांच्यात संतुलन राखणारे हे मल्टीमॉडल मॉडेल आहे.
  • प्रो: जटिल कार्ये हाताळण्यासाठी डिझाइन केलेले हे उच्च-कार्यक्षमतेचे मल्टीमॉडल मॉडेल आहे.

ॲमेझॉन नोव्हा मॉडेल्सचा उपयोग जनरेशन आणि एजंटिक वर्कफ्लोच्या विकासासह विविध कार्यांसाठी केला जाऊ शकतो. या मॉडेल्समध्ये टूल कॉलिंग नावाच्या प्रक्रियेद्वारे बाह्य साधने किंवा सेवांशी संवाद साधण्याची क्षमता आहे. ही कार्यक्षमता ॲमेझॉन बेडरोक कन्सोल आणि Converse आणि Invoke सारख्या API द्वारे ॲक्सेस केली जाऊ शकते.

प्री-ट्रेन्ड मॉडेल्स वापरण्याव्यतिरिक्त, विकासकांकडे मल्टीमॉडल डेटा (प्रो आणि लाइट) किंवा टेक्स्ट डेटा (प्रो, लाइट आणि मायक्रो) सह ही मॉडेल्स फाइन-ट्यून करण्याचा पर्याय आहे. हे लवचिकतेमुळे विकासकांना अचूकता, लेटेंसी आणि खर्च-प्रभावीतेची इच्छित पातळी प्राप्त करता येते. याव्यतिरिक्त, विकासक मोठ्या मॉडेल्सचे लहान मॉडेल्समध्ये सेल्फ-सर्व्हिस कस्टम फाइन-ट्यूनिंग आणि डिस्टिलेशन करण्यासाठी ॲमेझॉन बेडरोक कन्सोल आणि API चा लाभ घेऊ शकतात.

सोल्यूशनचे विहंगावलोकन

या सोल्यूशनमध्ये, विशेषतः टूल वापरासाठी डिझाइन केलेला कस्टम डेटासेट तयार करणे समाविष्ट आहे. हा डेटासेट ॲमेझॉन बेडरोकद्वारे ॲमेझॉन नोव्हा मॉडेल्सचे कार्यप्रदर्शन Converse आणि Invoke API वापरून तपासण्यासाठी वापरला जातो. त्यानंतर, ॲमेझॉन नोव्हा मायक्रो आणि ॲमेझॉन नोव्हा लाइट मॉडेल्स ॲमेझॉन बेडरोकद्वारे तयार केलेल्या डेटासेट वापरून फाइन-ट्यून केले जातात. फाइन-ट्यूनिंग प्रक्रिया पूर्ण झाल्यावर, ही सानुकूलित मॉडेल्स प्रोव्हिजनड थ्रूपुटद्वारे तपासली जातात.

साधने

LLMs मध्ये टूलच्या वापरात दोन आवश्यक क्रियांचा समावेश होतो: टूल निवड आणि आर्ग्युमेंट काढणे किंवा जनरेट करणे. उदाहरणार्थ, विशिष्ट ठिकाणाबद्दल हवामानाची माहिती मिळवण्यासाठी डिझाइन केलेले टूल विचारात घ्या. ‘लंडनमध्ये सध्याचे हवामान काय आहे?’ असा प्रश्न विचारल्यावर, LLM योग्य टूल अस्तित्वात आहे का हे निर्धारित करण्यासाठी त्याच्या उपलब्ध साधनांचे मूल्यांकन करते. योग्य टूल आढळल्यास, मॉडेल ते निवडते आणि टूल कॉल तयार करण्यासाठी आवश्यक आर्ग्युमेंट्स काढते – या प्रकरणात, ‘लंडन’.

प्रत्येक टूल त्याच्या उद्देशित कार्यक्षमतेची, अनिवार्य आणि ऐच्छिक आर्ग्युमेंट्स आणि संबंधित डेटा प्रकारांची रूपरेषा देणाऱ्या औपचारिक तपशीलासह तयार केले जाते. या अचूक व्याख्या, ज्यांना टूल कॉन्फिग म्हणतात, टूल कॉल्स योग्यरित्या कार्यान्वित केले जातील आणि आर्ग्युमेंट पार्सिंग टूलच्या ऑपरेशनल आवश्यकतांशी जुळेल याची खात्री करतात. या आवश्यकतेचे पालन करून, या उदाहरणात वापरलेला डेटासेट आठ विशिष्ट साधनांना परिभाषित करतो, प्रत्येकाची स्वतःची आर्ग्युमेंट्स आणि कॉन्फिगरेशन JSON फॉरमॅटमध्ये संरचित आहेत. परिभाषित केलेली आठ साधने खालीलप्रमाणे आहेत:

  • weather_api_call: हवामानाची माहिती मिळवण्यासाठी डिझाइन केलेले कस्टम टूल.
  • stat_pull: आकडेवारी ओळखण्यासाठी कस्टम टूल.
  • text_to_sql: टेक्स्टला SQL क्वेरीमध्ये रूपांतरित करण्यासाठी कस्टम टूल.
  • terminal: टर्मिनल वातावरणात स्क्रिप्ट कार्यान्वित करण्यासाठी टूल.
  • wikipedia: विकिपीडिया पृष्ठांवर शोध घेण्यासाठी विकिपीडिया API टूल.
  • duckduckgo_results_json: DuckDuckGo वापरून इंटरनेट शोध घेण्यासाठी इंटरनेट शोध टूल.
  • youtube_search: व्हिडिओ सूची शोधण्यासाठी YouTube API शोध टूल.
  • pubmed_search: PubMed ॲब्स्ट्रॅक्ट शोधण्यासाठी PubMed शोध टूल.

डेटासेट

या सोल्यूशनमध्ये वापरलेला डेटासेट हा सिंथेटिक टूल कॉलिंग डेटासेट आहे, जो ॲमेझॉन बेडरोकमधील फाउंडेशन मॉडेल (FM) च्या मदतीने तयार केला गेला आहे आणि त्यानंतर व्यक्तिचलितपणे प्रमाणित आणि समायोजित केला गेला आहे. हा डेटासेट यापूर्वी चर्चा केलेल्या आठ साधनांसाठी विकसित केला गेला आहे, ज्याचा उद्देश प्रश्नांचा आणि टूलInvocation चा विविध संग्रह तयार करणे आहे, ज्यामुळे दुसरे मॉडेल या उदाहरणांवरून शिकू शकेल आणि न पाहिलेल्या टूल invocations साठी सामान्यीकरण करू शकेल.

डेटासेटमधील प्रत्येक एंट्री JSON ऑब्जेक्ट म्हणून संरचित आहे, ज्यामध्ये प्रश्नाची व्याख्या करणारे की-व्हॅल्यू पेअर्स (मॉडेलसाठी नैसर्गिक भाषेतील वापरकर्ता क्वेरी), वापरकर्त्याच्या क्वेरीचे उत्तर देण्यासाठी आवश्यक असलेले ग्राउंड ट्रूथ टूल, त्याचे आर्ग्युमेंट्स (टूल कार्यान्वित करण्यासाठी आवश्यक असलेल्या पॅरामीटर्सचा शब्दकोश) आणि order_matters: boolean सारख्या अतिरिक्त मर्यादा (आर्ग्युमेंट्सचा क्रम महत्वाचा आहे की नाही हे दर्शवते) आणि arg_pattern: optional, आर्ग्युमेंट व्हॅलिडेशन किंवा फॉर्मेटिंगसाठी रेग्युलर एक्सप्रेशन (regex). हे ग्राउंड ट्रूथ लेबल्स प्री-ट्रेन्ड ॲमेझॉन नोव्हा मॉडेल्सच्या प्रशिक्षणाचे पर्यवेक्षण करण्यासाठी वापरले जातात, जे त्यांना टूल वापरासाठी अनुकूल करतात. ही प्रक्रिया, ज्याला पर्यवेक्षित फाइन-ट्यूनिंग म्हणतात, पुढील विभागांमध्ये अधिक एक्सप्लोर केली आहे.

प्रशिक्षण सेटमध्ये 560 प्रश्न आहेत, तर चाचणी सेटमध्ये 120 प्रश्न आहेत. चाचणी सेट 120 प्रश्नांपर्यंत एकूण 15 प्रश्न प्रति टूल श्रेणी समाविष्ट करण्यासाठी संरचित आहे.

ॲमेझॉन नोव्हासाठी डेटासेट तयार करणे

ॲमेझॉन नोव्हा मॉडेल्ससह हा डेटासेट प्रभावीपणे वापरण्यासाठी, डेटा विशिष्ट चॅट टेम्पलेटनुसार फॉरमॅट करणे आवश्यक आहे. मूळ टूल कॉलिंगमध्ये भाषांतर स्तर समाविष्ट आहे जो मॉडेलला पाठवण्यापूर्वी इनपुटला योग्य फॉरमॅटमध्ये रूपांतरित करतो. या सोल्यूशनमध्ये, DIY टूल वापर दृष्टिकोन स्वीकारला जातो, जो कस्टम प्रॉम्प्ट टेम्पलेट वापरतो. विशेषतः, सिस्टम प्रॉम्प्ट, टूल कॉन्फिगमध्ये एम्बेड केलेला वापरकर्ता संदेश आणि ग्राउंड ट्रूथ लेबल्स सहाय्यक संदेश म्हणून जोडणे आवश्यक आहे.

ॲमेझॉन S3 वर डेटासेट अपलोड करणे

फाइन-ट्यूनिंग प्रक्रियेदरम्यान ॲमेझॉन बेडरोकला प्रशिक्षण डेटा ॲक्सेस करण्यास सक्षम करण्यासाठी हे आवश्यक आहे. डेटासेट ॲमेझॉन सिंपल स्टोरेज सर्व्हिस (Amazon S3) कन्सोलद्वारे किंवा प्रोग्रामॅटिक पद्धतीने अपलोड केला जाऊ शकतो.

ॲमेझॉन बेडरोक API द्वारे बेस मॉडेल्ससह टूल कॉलिंग

आवश्यकतेनुसार तयार आणि फॉरमॅट केलेल्या टूल वापर डेटासेटसह, ॲमेझॉन नोव्हा मॉडेल्सची चाचणी घेण्यासाठी याचा वापर केला जाऊ शकतो. ॲमेझॉन बेडरोकमध्ये टूल वापरासाठी Converse आणि Invoke API दोन्ही वापरले जाऊ शकतात. Converse API डायनॅमिक, संदर्भ-जागरूक संभाषणांना सक्षम करते, ज्यामुळे मॉडेल्सना मल्टी-टर्न संवादांमध्ये व्यस्त राहता येते, तर Invoke API वापरकर्त्यांना ॲमेझॉन बेडरोकमधील अंतर्निहित मॉडेल्सना कॉल आणि इंटरॅक्ट करण्यास अनुमती देते.

Converse API वापरण्यासाठी, संदेश, सिस्टम प्रॉम्प्ट (असल्यास) आणि टूल कॉन्फिग थेट API ला पाठवले जातात.

LLM प्रतिसादातून टूल आणि आर्ग्युमेंट्स पार्स करण्यासाठी, ‘अरे, पॅरिसमध्ये सध्या तापमान किती आहे?’ हा प्रश्न विचारात घ्या. प्रश्नाचे उत्तर देण्यासाठी आवश्यक असलेले टूल आणि आर्ग्युमेंट्स ओळखण्यासाठी आउटपुट पार्स केले जाईल.

वर्धित टूल वापरासाठी ॲमेझॉन नोव्हा मॉडेल्सचे फाइन-ट्यूनिंग

ॲमेझॉन नोव्हासारख्या प्री-ट्रेन्ड भाषिक मॉडेल्सला विशिष्ट कार्यांमध्ये जुळवून घेण्यासाठी फाइन-ट्यूनिंग हे एक महत्त्वपूर्ण पाऊल आहे. इच्छित ॲप्लिकेशनसाठी तयार केलेल्या डेटासेटवर मॉडेलला प्रशिक्षण देऊन, मॉडेल अधिक अचूकता आणि कार्यक्षमतेने कार्य करण्यास शिकू शकते. टूलच्या वापराच्या संदर्भात, फाइन-ट्यूनिंग मॉडेलची योग्य टूल निवडण्याची आणि योग्य आर्ग्युमेंट्स काढण्याची क्षमता लक्षणीयरीत्या सुधारू शकते.

फाइन-ट्यूनिंग प्रक्रियेमध्ये प्रशिक्षण डेटासेटमधील मॉडेलच्या भविष्यवाण्या आणि ग्राउंड ट्रूथ लेबल्समधील फरक कमी करण्यासाठी मॉडेलच्या अंतर्गत पॅरामीटर्स समायोजित करणे समाविष्ट आहे. हे सहसा एका पुनरावृत्ती प्रक्रियेद्वारे साध्य केले जाते, जेथे मॉडेल वारंवार प्रशिक्षण डेटाच्या संपर्कात येते आणि त्याचे पॅरामीटर्स निरीक्षणाधीन त्रुटींवर आधारित समायोजित केले जातात.

फाइन-ट्यूनिंग डेटासेट तयार करणे

फाइन-ट्यूनिंग डेटासेट काळजीपूर्वक तयार केला पाहिजे जेणेकरून मॉडेल वास्तविक जगात ज्या प्रकारचे प्रश्न आणि टूल invocations हाताळण्याची अपेक्षा आहे त्याचे प्रतिबिंब दिसेल. डेटासेटमध्ये विविध टूल श्रेणी आणि आर्ग्युमेंट पॅटर्न समाविष्ट असलेल्या उदाहरणांची विस्तृत श्रेणी समाविष्ट असावी.

डेटासेटमधील प्रत्येक उदाहरणामध्ये एक प्रश्न, कॉल करण्यासाठी संबंधित टूल आणि टूल कार्यान्वित करण्यासाठी आवश्यक असलेले आर्ग्युमेंट्स असावेत. आर्ग्युमेंट्स संरचित पद्धतीने फॉरमॅट केलेले असावेत, विशेषत: JSON ऑब्जेक्ट म्हणून.

फाइन-ट्यूनिंगप्रक्रिया

फाइन-ट्यूनिंग प्रक्रिया ॲमेझॉन बेडरोक कन्सोल किंवा API वापरून केली जाऊ शकते. प्रक्रियेमध्ये फाइन-ट्यून करण्यासाठी मॉडेल, फाइन-ट्यूनिंग डेटासेट आणि इच्छित प्रशिक्षण पॅरामीटर्स निर्दिष्ट करणे समाविष्ट आहे.

प्रशिक्षण पॅरामीटर्स फाइन-ट्यूनिंग प्रक्रियेच्या विविध पैलूंचे नियंत्रण करतात, जसे की लर्निंग रेट, बॅच साइज आणि इपॉचची संख्या. लर्निंग रेट प्रत्येक पुनरावृत्ती दरम्यान केलेल्या पॅरामीटर समायोजनाचे प्रमाण निर्धारित करते. बॅच साइज प्रत्येक पुनरावृत्तीमध्ये प्रक्रिया केलेल्या उदाहरणांची संख्या निर्धारित करते. इपॉचची संख्या मॉडेल संपूर्ण प्रशिक्षण डेटासेटच्या संपर्कात किती वेळा येते हे निर्धारित करते.

फाइन-ट्यून केलेल्या मॉडेलचे मूल्यांकन करणे

फाइन-ट्यूनिंग प्रक्रिया पूर्ण झाल्यानंतर, फाइन-ट्यून केलेल्या मॉडेलच्या कार्यप्रदर्शनाचे मूल्यांकन करणे आवश्यक आहे. हे फाइन-ट्यूनिंग प्रक्रियेदरम्यान वापरले गेले नाही अशा स्वतंत्र चाचणी डेटासेटवर मॉडेलची चाचणी करून केले जाऊ शकते.

चाचणी डेटासेट वास्तविक जगात मॉडेल ज्या प्रकारचे प्रश्न आणि टूल invocations हाताळण्याची अपेक्षा आहे त्याचे प्रतिनिधित्व करणारा असावा. मॉडेलच्या कार्यप्रदर्शनाचे मूल्यांकन अचूकता, अचूकता, रिकॉल आणि F1-स्कोअर यांसारख्या मेट्रिक्सद्वारे केले जाऊ शकते.

टूल वापरासाठी ॲमेझॉन नोव्हा मॉडेल्स सानुकूलित करण्याचे फायदे

टूल वापरासाठी ॲमेझॉन नोव्हा मॉडेल्स सानुकूलित करण्याचे अनेक फायदे आहेत:

  • सुधारित अचूकता: कार्य-विशिष्ट डेटासेटवर मॉडेलला फाइन-ट्यून केल्याने टूल निवड आणि आर्ग्युमेंट काढण्याची अचूकता लक्षणीयरीत्या सुधारू शकते.
  • वाढलेली कार्यक्षमता: फाइन-ट्यून केलेले मॉडेल्स प्री-ट्रेन्ड मॉडेल्सपेक्षा अधिक कार्यक्षमतेने टूल वापर कार्ये करू शकतात.
  • वर्धित अनुकूलता: फाइन-ट्यूनिंग मॉडेलला विशिष्ट डोमेन आणि वापर प्रकरणांशी जुळवून घेण्यास अनुमती देते.
  • कमी खर्च: काही प्रकरणांमध्ये, फाइन-ट्यूनिंगमुळे टूल वापर कार्ये करण्यासाठी आवश्यक असलेल्या संगणकीय संसाधनांची संख्या कमी होऊ शकते.

निष्कर्ष

टूल वापरासाठी ॲमेझॉन नोव्हा मॉडेल्स सानुकूलित करणे हे LLMs चे कार्यप्रदर्शन आणि अनुकूलता वाढवण्यासाठी एक मौल्यवान तंत्र आहे. कार्य-विशिष्ट डेटासेटवर मॉडेलला फाइन-ट्यून करून, विकासक टूल वापर ॲप्लिकेशन्सची अचूकता, कार्यक्षमता आणि अनुकूलता लक्षणीयरीत्या सुधारू शकतात. निर्णय घेण्यास सक्षम असलेल्या AI सोल्यूशन्सची मागणी वाढत असल्यामुळे, टूल वापरासाठी LLMs चे सानुकूलन अधिकाधिक महत्वाचे ठरेल.