GPT-4.5 ची व्याप्ती आणि आकार
GPT-4.5 हे OpenAI चे आजपर्यंतचे सर्वात मोठे मॉडेल आहे. त्याची रचना आणि प्रशिक्षण डेटाबद्दल (training data) तपशीलवार माहिती उपलब्ध नसली तरी, हे मॉडेल तयार करण्यासाठी प्रचंड संसाधने वापरली गेली. हे प्रशिक्षण अनेक डेटा केंद्रांवर (data centers) विभागले गेले होते, कारण एका केंद्रावर ते करणे शक्य नव्हते.
या मॉडेलची किंमत देखील खूप जास्त आहे. GPT-4o पेक्षा 15-30 पट, o1 पेक्षा 3-5 पट आणि Claude 3.7 Sonnet पेक्षा 10-25 पट जास्त खर्च येतो. सध्या, हे फक्त ChatGPT Pro सदस्यांसाठी (दरमहा $200) आणि API क्लायंटसाठी उपलब्ध आहे, जे टोकननुसार पैसे देण्यास तयार आहेत.
परंतु, किंमतीच्या तुलनेत त्याची कार्यक्षमता, विशेषतः काही क्षेत्रांमध्ये, तितकी प्रभावी नाही. सुरुवातीच्या चाचण्यांमध्ये GPT-4o पेक्षा थोडी सुधारणा दिसून आली, परंतु o1 आणि o3-mini सारख्या मॉडेल्सपेक्षा तर्क (reasoning) कार्यात ते मागे पडले.
GPT-4.5 चा उद्देश
हे लक्षात घेणे महत्त्वाचे आहे की OpenAI ने GPT-4.5 ला कधीही त्यांचे मुख्य मॉडेल म्हणून सादर केले नाही. खरं तर, त्यांच्या ब्लॉग पोस्टच्या सुरुवातीच्या आवृत्त्यांमध्ये स्पष्ट केले होते की हे मॉडेल ‘फ्रंटियर मॉडेल’ (frontier model) नाही, जे क्षमतेच्या सीमांना पुढे ढकलते. तसेच, हे प्रामुख्याने तर्क मॉडेल म्हणून तयार केलेले नाही, त्यामुळे त्याची तुलना o3 आणि DeepSeek-R1 सारख्या तर्क-आधारित मॉडेल्सशी करणे योग्य नाही.
OpenAI ने सूचित केले आहे की GPT-4.5 हे त्यांचे शेवटचे नॉन-चेन-ऑफ-थॉट (non-chain-of-thought) मॉडेल असेल. याचा अर्थ असा की त्याचे प्रशिक्षण प्रामुख्याने जागतिक ज्ञान (world knowledge) आणि वापरकर्त्यांच्या आवडीनिवडींवर आधारित आहे, जटिल तर्क क्षमता विकसित करण्यावर नाही.
GPT-4.5 कुठे प्रभावी आहे: ज्ञान आणि सूक्ष्मता
मोठ्या मॉडेल्सचा मुख्य फायदा म्हणजे त्यांची ज्ञान मिळवण्याची क्षमता. GPT-4.5, या तत्त्वानुसार, लहान मॉडेल्सच्या तुलनेत कमी चुका करते. त्यामुळे, जिथे तथ्य आणि माहिती अचूक असणे आवश्यक आहे, तिथे हे मॉडेल उपयुक्त ठरू शकते.
शिवाय, GPT-4.5 वापरकर्त्याच्या सूचना आणि प्राधान्ये अधिक चांगल्या प्रकारे समजून घेते. OpenAI ने विविध प्रात्यक्षिकांमध्ये हे दर्शविले आहे आणि वापरकर्त्यांनी ऑनलाइन शेअर केलेल्या अनुभवांवरूनही हे सिद्ध झाले आहे. हे मॉडेल वापरकर्त्याचा हेतू अधिक प्रभावीपणे समजून घेते, ज्यामुळे अधिक संबंधित आणि योग्य उत्तरे मिळतात.
लेखन गुणवत्तेवरील चर्चा: व्यक्तिनिष्ठता आणि क्षमता
GPT-4.5 च्या उत्कृष्ट लेखन क्षमतेबद्दल एक चर्चा सुरू झाली आहे. OpenAI च्या काही अधिकाऱ्यांनी मॉडेलच्या गुणवत्तेची प्रशंसा केली आहे, CEO सॅम अल्टमन (Sam Altman) यांनी असेही म्हटले आहे की काही निवडक परीक्षकांना याचा अनुभव ‘AGI’ (कृत्रिम सामान्य बुद्धिमत्ता) सारखा वाटला.
परंतु, यावर संमिश्र प्रतिक्रिया उमटल्या आहेत. OpenAI चे सह-संस्थापक आंद्रेज कार्पथी (Andrej Karpathy) यांनी तर्कशक्तीवर कमी अवलंबून असलेल्या कार्यांमध्ये सुधारणा होण्याची अपेक्षा व्यक्त केली, जसे की ‘EQ’ (भावनिक बुद्धिमत्ता), सर्जनशीलता, समानता आणि विनोद – जे सहसा जागतिक ज्ञान आणि सामान्य समजामुळे मर्यादित असतात.
कार्पथी यांनी केलेल्या एका सर्वेक्षणानुसार, वापरकर्त्यांनी लेखनाच्या गुणवत्तेच्या बाबतीत GPT-4o च्या प्रतिसादांना GPT-4.5 पेक्षा जास्त पसंती दिली. हे दर्शविते की लेखन शैलीचे मूल्यमापन करणे व्यक्तिनिष्ठ आहे आणि चांगल्या प्रॉम्प्ट इंजिनिअरिंगमुळे (prompt engineering) लहान, अधिक कार्यक्षम मॉडेल्समधूनही चांगली गुणवत्ता मिळू शकते.
कार्पथी यांनी स्वतः निकालांच्या संदिग्धतेची कबुली दिली आणि विविध संभाव्य स्पष्टीकरणे सुचविली: ‘उच्च-अभिरुची’ असलेले परीक्षक कदाचित इतरांना न दिसणारे सूक्ष्म संरचनात्मक सुधारणा पाहू शकतील, चाचणी केलेली उदाहरणे आदर्श नसतील किंवा फरक इतके सूक्ष्म असतील की ते लहान नमुन्यात ओळखणे शक्य नाही.
स्केलिंगची मर्यादा आणि LLMs चे भविष्य
GPT-4.5 ची निर्मिती, काही प्रमाणात, मोठ्या डेटासेटवर प्रशिक्षित केलेल्या मॉडेल्सना फक्त मोठे करण्याच्या संभाव्य मर्यादा दर्शवते. इल्या सुतस्केव्हर (Ilya Sutskever), OpenAI चे आणखी एक सह-संस्थापक आणि माजी मुख्य शास्त्रज्ञ, यांनी NeurIPS 2024 मध्ये सांगितले होते की, “आपल्याला माहीत असलेले प्री-ट्रेनिंग (pre-training) निश्चितपणे संपुष्टात येईल… आपल्याकडे असलेला डेटा पुरेसा आहे आणि आणखी डेटा मिळणार नाही. आपल्याला जे आहे त्यावर काम करावे लागेल. इंटरनेट फक्त एकच आहे.”
GPT-4.5 मध्ये दिसणारी कमी झालेली कार्यक्षमता, इंटरनेट डेटावर (internet data) प्रशिक्षित केलेल्या आणि मानवी अभिप्रायाच्या (human feedback) आधारावर केलेल्या मजबुतीकरण शिक्षणाद्वारे (reinforcement learning) फाइन-ट्यून (fine-tune) केलेल्या सामान्य-उद्देश मॉडेलच्या स्केलिंगमधील (scaling) आव्हानांची साक्ष देतात.
मोठ्या भाषिक मॉडेल्ससाठी पुढील टप्पा टेस्ट-टाइम स्केलिंग (test-time scaling) किंवा इन्फरन्स-टाइम स्केलिंग (inference-time scaling) असल्याचे दिसते. यामध्ये चेन-ऑफ-थॉट (CoT) टोकन तयार करून मॉडेल्सना जास्त वेळ ‘विचार’ करण्यासाठी प्रशिक्षित करणे समाविष्ट आहे. टेस्ट-टाइम स्केलिंग मॉडेलची जटिल तर्क समस्या सोडवण्याची क्षमता वाढवते आणि o1 आणि R1 सारख्या मॉडेल्सच्या यशात महत्त्वपूर्ण ठरले आहे.
अपयश नाही, पण एक पाया
GPT-4.5 प्रत्येक कार्यासाठी योग्य नसले तरी, भविष्यातील प्रगतीसाठी ते एक महत्त्वाचा पाया आहे. अधिक प्रगत तर्क मॉडेल्सच्या विकासासाठी मजबूत ज्ञान आधार (knowledge base) आवश्यक आहे.
जरी GPT-4.5 बहुतेक ऍप्लिकेशन्ससाठी (applications) मुख्य मॉडेल बनले नाही, तरीही ते पुढील तर्क मॉडेल्ससाठी एक महत्त्वपूर्ण घटक म्हणून काम करू शकते. हे शक्य आहे की ते आधीपासूनच o3 सारख्या मॉडेल्समध्ये वापरले जात आहे.
मार्क चेन (Mark Chen), OpenAI चे मुख्य संशोधन अधिकारी, यांनी स्पष्ट केले, “तर्क तयार करण्यासाठी ज्ञानाची आवश्यकता असते. मॉडेल फक्त ज्ञानाशिवाय तर्क शिकू शकत नाही. त्यामुळे आम्हाला या दोन्ही पद्धती एकमेकांना पूरक वाटतात आणि त्यांचा एकमेकांवर सकारात्मक परिणाम होतो.”
म्हणून, GPT-4.5 चा विकास म्हणजे शेवट नसून, मोठ्या भाषिक मॉडेल्सच्या (large language models) उत्क्रांतीमधील एक महत्त्वपूर्ण टप्पा आहे. हे AI संशोधनाच्या पुनरावृत्ती स्वरूपाचे (iterative nature) उदाहरण आहे, जिथे प्रत्येक पाऊल, जरी ते स्वतंत्रपणे कमी प्रभावी वाटत असले तरी, अधिक सक्षम आणि बहुमुखी AI प्रणालींच्या दिशेने प्रगतीसाठी योगदान देते. आता लक्ष या मजबूत ज्ञानाच्या पायाचा उपयोग करून अशा मॉडेल्स तयार करण्यावर आहे, जे केवळ माहिती आठवू शकत नाहीत तर अभूतपूर्व प्रभावीपणे तर्क करू शकतात आणि समस्या सोडवू शकतात. खऱ्या अर्थाने बुद्धिमान AI च्या दिशेने प्रवास सुरू आहे आणि GPT-4.5, त्याच्या संमिश्र प्रतिसादानंतरही, या प्रवासात महत्त्वपूर्ण भूमिका बजावते.
आता लक्ष केवळ मॉडेलला किती माहित आहे यावर नाही, तर ते त्या ज्ञानाचा कसा वापर करू शकते यावर आहे. हे मुख्य आव्हान आहे ज्याचा AI समुदाय सामना करत आहे, आणि GPT-4.5, जरी एक परिपूर्ण उपाय नसला तरी, मौल्यवान अंतर्दृष्टी आणि भविष्यातील प्रगतीसाठी एक मजबूत पाया प्रदान करते. पुढील मार्ग अनेक दृष्टिकोन एकत्र करतो: विद्यमान तंत्रे सुधारणे, नवीन रचना शोधणे आणि प्रशिक्षण आणि मूल्यमापनासाठी अधिक प्रगत पद्धती विकसित करणे. अंतिम ध्येय तेच राहते: AI प्रणाली तयार करणे जे केवळ मानवी भाषा समजू शकत नाहीत आणि तयार करू शकत नाहीत, तर तर्क करू शकतात, शिकू शकतात आणि अशा प्रकारे जुळवून घेऊ शकतात जे एकेकाळी केवळ मानवी बुद्धिमत्तेचे क्षेत्र मानले जात होते.