कृत्रिम बुद्धिमत्ता के अंतर्निहित तर्क का गहन विश्लेषण
कृत्रिम बुद्धिमत्ता के मूल सिद्धांतों का अनावरण
भाग 1: बुद्धिमत्ता पर तार्किक बहस: दार्शनिक और ऐतिहासिक परिप्रेक्ष्य
कृत्रिम बुद्धिमत्ता (AI) का "अंतर्निहित तर्क" एकवचन, निश्चित अवधारणा नहीं है। बल्कि, यह बुद्धि बनाने के तरीके के बारे में दशकों से चली आ रही बौद्धिक बहस से उपजा है। AI को समझने के लिए, किसी को पहले इसके बौद्धिक मूल - दो मुख्य दार्शनिक विद्यालयों के संघर्ष और संलयन: प्रतीकात्मकता और संयोजनवाद में उतरना चाहिए। ये विद्यालय बुद्धि के स्पष्ट रूप से विरोधी विचारों का प्रतिनिधित्व करते हैं, और उनकी उतार-चढ़ाव वाली किस्मत ने पूरे AI क्षेत्र के ऐतिहासिक प्रक्षेपवक्र और भविष्य की दिशा को आकार दिया है।
1.1 दो विचारधाराएं
कृत्रिम बुद्धिमत्ता का निर्माण तर्क दो मुख्य पथों के साथ सामने आता है: ऊपर से नीचे का प्रतीकात्मक हेरफेर और नीचे से ऊपर का बायो-प्रेरित शिक्षण।
प्रतीकात्मकता (शीर्ष-नीचे तर्क)
प्रतीकात्मकता, जिसे तर्कवाद या कंप्यूटर स्कूल के रूप में भी जाना जाता है, इस मूल विश्वास पर आधारित है कि बुद्धि का सार स्पष्ट, औपचारिक नियमों के एक सेट के अनुसार प्रतीकों में हेरफेर करने में निहित है। यह एक "शीर्ष-नीचे" दृष्टिकोण है, इस आधार के साथ कि मानव अनुभूति और विचार प्रक्रियाओं को प्रतीकात्मक कार्यों में सारगर्भित किया जा सकता है। इस दृष्टिकोण में, बुद्धि को तार्किक तर्क की प्रक्रिया के रूप में देखा जाता है, और मन को संरचित डेटा पर चलने वाले कंप्यूटर प्रोग्राम के साथ जोड़ा जा सकता है।
इस स्कूल का सबसे विशिष्ट प्रकटीकरण विशेषज्ञ सिस्टम हैं। इन प्रणालियों ने 1970 और 1980 के दशक में अपने सुनहरे युग का आनंद लिया, जो AI की पहली बड़े पैमाने पर व्यावसायिक सफलता को चिह्नित करता है। उन्होंने बड़ी संख्या में "यदि-तो" नियमों वाले ज्ञान आधार के माध्यम से विशिष्ट संकीर्ण क्षेत्रों (जैसे चिकित्सा निदान या रासायनिक विश्लेषण) में मानव विशेषज्ञों की निर्णय लेने की प्रक्रियाओं का अनुकरण करने का लक्ष्य रखा। विशेषज्ञ प्रणालियों की सफलता ने प्रतीकात्मकता को अपनी चरम पर पहुंचा दिया, जिससे यह उस समय AI का लगभग पर्याय बन गया।
संयोजनवाद (नीचे-ऊपर का तर्क)
प्रतीकात्मकता के विपरीत, संयोजनवाद, जिसे बियोनिक्स स्कूल के रूप में भी जाना जाता है, का तर्क है कि बुद्धि एक उभरती घटना है। यह एक केंद्रीय नियंत्रक या पूर्व निर्धारित नियमों द्वारा हावी नहीं है, बल्कि बड़ी संख्या में सरल, परस्पर जुड़े प्रसंस्करण इकाइयों (यानी, कृत्रिम न्यूरॉन्स) के बीच जटिल बातचीत से उत्पन्न होती है। यह "नीचे-ऊपर" तर्क मानव मस्तिष्क की संरचना से प्रेरित है, यह मानते हुए कि बुद्धिमत्ता को प्रोग्राम नहीं किया गया है, बल्कि डेटा से पैटर्न सीखकर प्राप्त किया गया है।
संयोजनवाद का मूल विश्वास यह है कि जटिल व्यवहार वैश्विक स्पष्ट नियमों की आवश्यकता के बिना, सरल स्थानीय अंतःक्रियाओं से उत्पन्न हो सकते हैं। इसका मूल तकनीकी अवतार कृत्रिम तंत्रिका नेटवर्क (ANN) है। ये मॉडल बड़ी मात्रा में नमूना डेटा पर प्रशिक्षण द्वारा इनपुट और आउटपुट के बीच जटिल संबंधों को सीखते हैं और न्यूरॉन्स के बीच "वजन" (यानी, कनेक्शन ताकत) को लगातार समायोजित करते हैं।
1.2 इतिहास का पेंडुलम: उदय, शीतकालीन और पुनरुत्थान
AI विकास का इतिहास रैखिक प्रगति का नहीं है, बल्कि एक पेंडुलम जैसा है जो प्रतीकात्मकता और संयोजनवाद के बीच आगे-पीछे झूलता है। यह प्रक्रिया गहराई से बताती है कि एक सैद्धांतिक प्रतिमान की सफलता या विफलता न केवल उसके विचारों की गहराई पर निर्भर करती है, बल्कि उस समय की तकनीक और आर्थिक स्थितियों की बाधाओं पर भी निर्भर करती है। AI का अंतर्निहित तर्क एक निर्वात में विकसित नहीं होता है, और इसका विकास प्रक्षेपवक्र (1) मुख्यधारा के दार्शनिक विचार, (2) उपलब्ध कंप्यूटिंग शक्ति, और (3) आर्थिक व्यवहार्यता के बीच जटिल अंतःक्रिया का प्रत्यक्ष परिणाम है।
शुरुआती फायदे और पहला AI शीतकालीन
AI के शुरुआती दिनों में, संयोजनवाद ने बड़ी क्षमता दिखाई। हालांकि, 1969 में, प्रतीकात्मकता में एक अग्रणी व्यक्ति मार्विन मिंस्की ने Perceptrons नामक एक पुस्तक प्रकाशित की, जो इतिहास में एक महत्वपूर्ण मोड़ बन गई। मिंस्की ने गणितीय रूप से कठोरता से साबित किया कि उस समय के सरल एकल-परत तंत्रिका नेटवर्क (यानी, परसेप्ट्रॉन) कुछ सबसे बुनियादी समस्याओं, जैसे तार्किक "एक्सक्लूसिव या" (XOR) समस्या को हल नहीं कर सकते हैं। इस सटीक शैक्षणिक आलोचना, उस समय कंप्यूटर कंप्यूटिंग शक्ति की सामान्य कमी के साथ मिलकर, संयोजनवादी अनुसंधान पर विनाशकारी प्रहार किया। अनुसंधान निधि में भारी कटौती की गई, और तंत्रिका नेटवर्क अनुसंधान एक दशक से अधिक समय तक चलने वाली ठहराव की अवधि में प्रवेश कर गया, जिसे पहले "AI शीतकालीन" के रूप में जाना जाता है। इस अवधि के दौरान, प्रतीकात्मकता के तर्क ने एक पूर्ण प्रमुख स्थिति पर कब्जा कर लिया।
प्रतीकात्मकता का स्वर्ण युग और दूसरा AI शीतकालीन
विशेषज्ञ प्रणालियां 1980 के दशक में फली-फूलीं, जिससे प्रतीकात्मकता व्यावसायिक अनुप्रयोगों के चरम पर पहुंच गई। हालांकि, इसकी सीमाएं धीरे-धीरे उजागर हो गईं: विशेषज्ञ प्रणालियों का निर्माण महंगा था, ज्ञान आधार का रखरखाव मुश्किल था, वे अस्पष्ट जानकारी को संभाल नहीं सकते थे, और उनमें नए ज्ञान को स्वचालित रूप से सीखने की क्षमता नहीं थी। अंततः, प्रतीकात्मक AI कार्यक्रमों (जैसे Lisp भाषा) को चलाने के लिए विशेष रूप से उपयोग की जाने वाली "Lisp मशीनों" की व्यावसायिक विफलता ने इस युग के अंत को चिह्नित किया। मजबूत प्रदर्शन और कम कीमतों वाले सामान्य-उद्देश्य वाले कंप्यूटरों (जैसे IBM PC) के उदय ने इन समर्पित हार्डवेयर उपकरणों को गैर-प्रतिस्पर्धी बना दिया, और AI क्षेत्र तब दूसरे शीतकालीन में प्रवेश कर गया। यह एक बार फिर साबित करता है कि यदि एक सैद्धांतिक तर्क को विकसित करना जारी रखना है, तो उसे समर्थन के रूप में एक मजबूत और किफायती हार्डवेयर नींव होनी चाहिए।
संयोजनवाद का पुनरुत्थान
संयोजनवाद का पुनरुत्थान आकस्मिक नहीं था, बल्कि तीन प्रमुख कारकों द्वारा संचालित किया गया था:
एल्गोरिदम सफलताएं: "शीतकालीन" के दौरान, बैकप्रोपेगेशन एल्गोरिदम की शुरूआत और अधिक जटिल नेटवर्क संरचनाओं जैसे लंबे लघु-अवधि स्मृति नेटवर्क (LSTM) के आविष्कार ने तंत्रिका नेटवर्क के प्रभावी प्रशिक्षण के लिए एल्गोरिथम नींव रखी।
डेटा बाढ़: इंटरनेट की लोकप्रियता ने अभूतपूर्व मात्रा में डेटा लाया। इस डेटा ने तंत्रिका नेटवर्क के लिए पर्याप्त "पोषण" प्रदान किया, जिसके लिए प्रशिक्षण के लिए बड़ी संख्या में नमूनों की आवश्यकता होती है।
कंप्यूटिंग पावर क्रांति: ग्राफिक्स प्रोसेसर (GPU), जो मूल रूप से वीडियो गेम के लिए डिज़ाइन किए गए थे, में एक बड़े पैमाने पर समानांतर कंप्यूटिंग आर्किटेक्चर है जो तंत्रिका नेटवर्क में मुख्य मैट्रिक्स संचालन के लिए पूरी तरह से अनुकूल पाया गया। GPU के उद्भव ने कंप्यूटिंग पावर बाधा को तोड़ दिया जो दशकों से कनेक्शनवाद को त्रस्त कर रहा था, जिससे इसकी सैद्धांतिक क्षमता को वास्तव में उजागर किया जा सका।
अंत में, एल्गोरिदम, डेटा और कंप्यूटिंग पावर के अभिसरण ने गहरे शिक्षण क्रांति को प्रज्वलित किया, जिससे संयोजनवाद का तर्क आज AI क्षेत्र में निर्विवाद मुख्यधारा बन गया।
1.3 दार्शनिक गतिरोध: समझ बनाम सिमुलेशन
दो प्रमुख विद्यालयों के बीच ऐतिहासिक विवाद अंततः एक गहन दार्शनिक प्रश्न की ओर ले जाता है जो आज तक अनसुलझा है: क्या एक मशीन जो बुद्धिमान व्यवहार का पूरी तरह से अनुकरण करने में सक्षम है, वास्तव में समझने की क्षमता रखती है?
ट्यूरिंग टेस्ट
एलन ट्यूरिंग का "ट्यूरिंग टेस्ट" बुद्धि की एक परिचालन, व्यवहारवादी परिभाषा प्रदान करता है। परीक्षण में यह शामिल है कि क्या एक मशीन मानव के साथ बातचीत कर सकती है, और मानव यह नहीं बता सकता कि यह एक मशीन है या एक व्यक्ति; तो मशीन को बुद्धिमान माना जा सकता है। ट्यूरिंग टेस्ट "बुद्धि क्या है" के आवश्यक प्रश्न को दरकिनार कर देता है और "बुद्धि को किस व्यवहार को प्रदर्शित करना चाहिए" की ओर मुड़ जाता है।
"चीनी कक्ष" विचार प्रयोग
दार्शनिक जॉन Searle ने 1980 में प्रसिद्ध "चीनी कक्ष" विचार प्रयोग प्रस्तावित किया, प्रतीकात्मकता और ट्यूरिंग परीक्षण पर एक भयंकर हमला शुरू किया। प्रयोग की कल्पना इस प्रकार की गई है: एक व्यक्ति जो चीनी को नहीं समझता है, उसे एक कमरे में बंद कर दिया जाता है, और कमरे में चीनी प्रसंस्करण नियमों का विस्तृत मैनुअल होता है (एक प्रोग्राम के बराबर)। वह एक खिड़की के माध्यम से चीनी अक्षरों में लिखे गए नोट्स (इनपुट) प्राप्त करता है, और फिर संबंधित अक्षरों को खोजने और संयोजित करने के लिए नियम मैनुअल में दिए गए निर्देशों का सख्ती से पालन करता है, और फिर परिणामों को खिड़की से बाहर निकालता है (आउटपुट)। कमरे के बाहर के लोगों के लिए, कमरे की प्रतिक्रिया एक देशी चीनी वक्ता की प्रतिक्रिया से अलग नहीं है, इसलिए यह ट्यूरिंग परीक्षण पास करता है।
हालांकि, Searle ने बताया कि कमरे में मौजूद व्यक्ति ने शुरू से अंत
तक किसी भी चीनी अक्षर का अर्थ (सिमेंटिक्स) कभी नहीं समझा, और उसने जो कुछ भी किया वह शुद्ध प्रतीकात्मक हेरफेर (सिंटेक्स) था। Searle ने निष्कर्ष निकाला कि केवल प्रतीकों में हेरफेर करना, चाहे कितना भी जटिल क्यों न हो, कभी भी सच्ची "समझ" नहीं पैदा कर सकता है। यह तर्क "मजबूत AI" (यानी, यह विश्वास कि सही ढंग से प्रोग्राम किया गया कंप्यूटर एक दिमाग रख सकता है) के दृष्टिकोण को शक्तिशाली रूप से चुनौती देता है।
आज, बड़े भाषा मॉडल (LLM) द्वारा प्रतिनिधित्व किए जाने वाले आधुनिक AI को एक अर्थ में "चीनी कक्ष" का एक सुपर-अपग्रेड संस्करण माना जा सकता है। वे बड़ी मात्रा में टेक्स्ट डेटा में सांख्यिकीय रूप से मिलान पैटर्न द्वारा प्रतीत होता है कि बुद्धिमान उत्तर उत्पन्न करते हैं। क्या वे वास्तव में भाषा को "समझते" हैं या सिर्फ जटिल "स्टोकेस्टिक तोते" हैं, इस पर बहस आधुनिक समय में ट्यूरिंग बनाम Searle बहस का एक निरंतरता है।
लंबे समय से, प्रतीकात्मकता और संयोजनवाद को दो परस्पर विरोधी प्रतिमान माना जाता रहा है। हालांकि, इतिहास का "युद्ध" संश्लेषण के रूप में समाप्त होने वाला है। भविष्य का अंतर्निहित तर्क या तो या विकल्प नहीं है, बल्कि दोनों का संलयन है। यह प्रवृत्ति न्यूरो-सिम्बोलिक AI के उदय में परिलक्षित होती है। इस क्षेत्र का उद्देश्य तंत्रिका नेटवर्क की शक्तिशाली पैटर्न पहचान क्षमताओं को प्रतीकात्मक प्रणालियों की कठोर तार्किक तर्क क्षमताओं के साथ जोड़ना है, जिसका लक्ष्य अधिक शक्तिशाली प्रणालियों का निर्माण करना है जो सीख और तर्क दोनों कर सकती हैं। उदाहरण के लिए, आधुनिक AI एजेंट बाहरी प्रतीकात्मक उपकरणों (जैसे कैलकुलेटर, डेटाबेस प्रश्नों) को अपनी क्षमताओं को बढ़ाने के लिए कॉल कर सकते हैं, जो तंत्रिका मॉडल और प्रतीकात्मक उपकरणों का एक व्यावहारिक संयोजन है।
इसके अलावा, आधुनिक बड़े भाषा मॉडल में "विशेषज्ञों का मिश्रण (MoE)" आर्किटेक्चर भी अवधारणा में प्रतीकात्मकता के विशेषज्ञ प्रणालियों को प्रतिध्वनित करता है। MoE मॉडल में कई विशेष "विशेषज्ञ" उप-नेटवर्क और एक "गेटिंग" नेटवर्क शामिल होता है, जो प्रत्येक इनपुट को संभालने के लिए सबसे उपयुक्त विशेषज्ञ का चयन करने के लिए जिम्मेदार होता है। यह कार्यात्मक रूप से नियमों के अनुसार विशिष्ट कार्यात्मक मॉड्यूल को कॉल करने वाले प्रतीकात्मक प्रणाली के समान है, लेकिन इसका कार्यान्वयन पूरी तरह से कनेक्शनवादी है - अंत से अंत तक सीखने और विभेदक अनुकूलन के माध्यम से। यह दर्शाता है कि AI का अंतर्निहित तर्क विरोध से पूरक की ओर बढ़ रहा है, संलयन के माध्यम से अभूतपूर्व शक्तिशाली क्षमताएं बना रहा है।
तालिका 1: मूल AI प्रतिमानों की तुलना: प्रतीकात्मकता बनाम संयोजनवाद
विशेषता | प्रतीकात्मकता (ऊपर-नीचे) | संयोजनवाद (नीचे-ऊपर) |
---|---|---|
मूल सिद्धांत | बुद्धि प्रतीकों में हेरफेर करके और औपचारिक नियमों का पालन करके प्राप्त की जाती है। | बड़ी संख्या में सरल, परस्पर जुड़ी इकाइयों की बातचीत से बुद्धि उभरती है। |
ज्ञान प्रतिनिधित्व | स्पष्ट, संरचित ज्ञान आधार (उदाहरण के लिए, "यदि-तो" नियम)। | नेटवर्क कनेक्शन के भार में एन्कोड किया गया अंतर्निहित, वितरित ज्ञान। |
तर्क विधि | तार्किक कटौती, खोज और अनुमानित नियमों के आधार पर तर्क। | डेटा-संचालित पैटर्न पहचान और सांख्यिकीय अनुमान के आधार पर तर्क। |
मुख्य प्रौद्योगिकियां | विशेषज्ञ सिस्टम, लॉजिक प्रोग्रामिंग, ज्ञान ग्राफ। | कृत्रिम तंत्रिका नेटवर्क, गहरा सीखना, बड़े भाषा मॉडल। |
लाभ | मजबूत व्याख्यात्मकता, तार्किक रूप से कठोर, अच्छी तरह से परिभाषित क्षेत्रों में उत्कृष्टता प्राप्त करना। | मजबूत सीखने की क्षमता, अस्पष्ट और असंरचित डेटा को संभाल सकता है, अच्छी सामान्यीकरण क्षमता। |
नुकसान | ज्ञान अधिग्रहण बाधा, अनिश्चितता को संभालने की कमजोर क्षमता, नाजुक प्रणाली। | "ब्लैक बॉक्स" समस्या (खराब व्याख्यात्मकता), बड़ी मात्रा में डेटा और कंप्यूटिंग शक्ति की आवश्यकता होती है, प्रतिकूल हमलों के लिए अतिसंवेदनशील। |
ऐतिहासिक शिखर | 1970 और 1980 के दशक में विशेषज्ञ प्रणालियों का युग। | 2010 से आज तक गहरे शिक्षण का युग। |
प्रतिनिधि आंकड़े | मार्विन मिंस्की, हर्बर्ट ए. साइमन, एलन नेवेल। | जेफ्री हिंटन, यान लेकन, जॉन हॉपफील्ड, फेई-फेई ली। |
भाग 2: आधुनिक AI की सार्वभौमिक भाषा: मूल गणितीय सिद्धांत
आधुनिक AI के रहस्य को उजागर करने के लिए यह महसूस करना आवश्यक है कि इसका "अंतर्निहित तर्क" मानव सामान्य ज्ञान या तर्क नहीं है, बल्कि एक सटीक और सार्वभौमिक गणितीय भाषा है। विशेष रूप से, संयोजनवाद-प्रभुत्व वाला AI अनिवार्य रूप से "डेटा, एल्गोरिदम और कंप्यूटिंग शक्ति" द्वारा संचालित अनुप्रयुक्त गणित है। खुफिया उत्पादन, सीखने और अनुकूलन की प्रक्रियाओं को तीन गणितीय स्तंभों के तालमेल में तोड़ा जा सकता है: संभाव्यता सांख्यिकी, रैखिक बीजगणित और कलन।
2.1 AI की गणितीय प्रकृति
वर्तमान कृत्रिम बुद्धिमत्ता के मूल कार्य को आमतौर पर उच्च-आयामी, जटिल समस्या स्थान में लगभग इष्टतम समाधान खोजने के रूप में वर्णित किया जा सकता है। सभी संभावनाओं को समाप्त करके समस्याओं को हल करने के बजाय, यह पर्याप्त रूप से अच्छा समाधान खोजने के लिए गणितीय विधियों को लागू करता है। गणित AI को औपचारिक मॉडलिंग उपकरण और वैज्ञानिक विवरण भाषाएं प्रदान करता है, और AI प्रणालियों के निर्माण, समझने और सुधार के लिए आधारशिला है।
2.2 स्तंभ 1: संभाव्यता और सांख्यिकी - अनिश्चितता का तर्क
संभाव्यता सिद्धांत और सांख्यिकी AI को अनिश्चित वातावरण में तर्क करने और डेटा से पैटर्न निकालने के लिए एक सैद्धांतिक ढांचा प्रदान करते हैं। AI मॉडल अनिवार्य रूप से संभाव्य प्रणालियां हैं जो भविष्यवाणियां और निर्णय लेने के लिए डेटा के अंतर्निहित वितरण को सीखती हैं।
हालांकि, बड़े डेटा के उद्भव ने पारंपरिक सांख्यिकी की नींव के लिए एक गंभीर चुनौती प्रस्तुत की है। पारंपरिक सांख्यिकीय सिद्धांत, जैसे कि बड़ी संख्या का नियम और केंद्रीय सीमा प्रमेय, ज्यादातर इस धारणा पर आधारित हैं कि नमूने "स्वतंत्र और समान रूप से वितरित" (i.i.d.) हैं और नमूना आकार n सुविधाओं की संख्या p से बहुत बड़ा है (अर्थात, p ≪ n)। लेकिन बड़े डेटा के युग में, ये धारणाएं अक्सर टूट जाती हैं। उदाहरण के लिए, छवि पहचान कार्यों में, एक उच्च-रिज़ॉल्यूशन छवि में लाखों पिक्सेल (सुविधाएँ p) हो सकते हैं, जबकि प्रशिक्षण डेटासेट में केवल दसियों हज़ार छवियां (नमूने n) हो सकती हैं, जो "आयाम के अभिशाप" समस्या की ओर ले जाती हैं जहाँ p ≫ n। इस मामले में, "छद्म-सहसंबंध" उत्पन्न करना आसान है जो पारंपरिक सांख्यिकीय विधियों को अमान्य कर देता है।
गहरे शिक्षण का उदय, कुछ हद तक, इस चुनौती की प्रतिक्रिया है। यह पारंपरिक सांख्यिकीय मान्यताओं पर भरोसा किए बिना उच्च-आयामी डेटा से प्रभावी सुविधा प्रतिनिधित्व को स्वचालित रूप से सीखने के लिए एक विधि प्रदान करता है। फिर भी, इस नए डेटा प्रतिमान के लिए एक ठोस सांख्यिकीय नींव स्थापित करना अभी भी एक बड़ी गणितीय समस्या है जिसे वर्तमान AI अनुसंधान में तत्काल हल करने की आवश्यकता है।
2.3 स्तंभ 2: रैखिक बीजगणित - प्रतिनिधित्व का तर्क
रैखिक बीजगणित AI दुनिया की "सार्वभौमिक भाषा" है, जो डेटा और मॉडल का प्रतिनिधित्व करने के लिए बुनियादी उपकरण प्रदान करती है। तंत्रिका नेटवर्क में, चाहे वह इनपुट (जैसे छवि के पिक्सेल, पाठ के शब्द वेक्टर), मॉडल के पैरामीटर (वजन), या अंतिम आउटपुट हो, उन सभी को एक संख्यात्मक संरचना के रूप में व्यक्त किया जाता है: वेक्टर, मैट्रिक्स, या उच्च-आयामी टेंसर।
तंत्रिका नेटवर्क में कोर ऑपरेशन, जैसे न्यूरॉन अपने सभी इनपुट का वजन और योग करता है, अनिवार्य रूप से मैट्रिक्स और वैक्टर का गुणन है। GPU AI प्रशिक्षण को बहुत तेज कर सकते हैं, इसका कारण ठीक यही है कि उनका हार्डवेयर आर्किटेक्चर इन बड़े पैमाने पर समानांतर रैखिक बीजगणित संचालन को कुशलतापूर्वक निष्पादित करने के लिए अत्यधिक अनुकूलित है।
2.4 स्तंभ 3: कलन और अनुकूलन - सीखने का तर्क
AI की सीखने की प्रक्रिया अनिवार्य रूप से एक गणितीय अनुकूलन समस्या है। लक्ष्य मॉडल मापदंडों का एक सेट (उदाहरण के लिए, तंत्रिका नेटवर्क में भार और पूर्वाग्रह) खोजना है जो मॉडल की भविष्यवाणियों और सच्चे उत्तरों के बीच अंतर को कम करते हैं। इस अंतर को तर्क फंक्शन द्वारा परिमाणित किया जाता है।
ढाल वंश: सीखने का इंजन
ढाल वंश इस लक्ष्य को प्राप्त करने के लिए मूल एल्गोरिदम है और लगभग सभी आधुनिक AI मॉडल के सीखने को चलाने वाला इंजन है।
मूल विचार: ढाल वंश एक पुनरावृत्त अनुकूलन एल्गोरिदम है जिसका उद्देश्य एक तर्क फंक्शन के न्यूनतम बिंदु को खोजना है। इस प्रक्रिया की तुलना घने कोहरे में एक पहाड़ से नीचे उतरने वाले व्यक्ति से की जा सकती है। वह नहीं देख सकता कि घाटी का सबसे निचला बिंदु कहां है, लेकिन वह अपने पैरों के नीचे जमीन के ढलान को महसूस कर सकता है। सबसे तर्कसंगत रणनीति वर्तमान स्थिति में सबसे खड़ी ढलान वाली दिशा में एक छोटा कदम उठाना है, और उसके बाद इस प्रक्रिया को दोहराना है।
विशिष्ट प्रक्रिया:
- **प्र आरं
भीकरण**: सबसे पहले, मॉडल मापदंडों (वजन और पूर्वाग्रह) का एक प्रारंभिक सेट बेतरतीब ढंग से सेट करें।
2. **कलन फंक्शन की गणना करें**: प्रशिक्षण डेटा पर भविष्यवाणियां करने के लिए वर्तमान मापदंडों का उपयोग करें, और भविष्यवाणियों और सच्चे लेबल के बीच कुल त्रुटि (कलन) की गणना करें।
3. **ढाल की गणना करें**: प्रत्येक पैरामीटर के संबंध में कलन फंक्शन के **ढाल** की गणना करने के लिए कलन में **आंशिक व्युत्पन्नों** का उपयोग करें। ढाल एक वेक्टर है जो कलन फंक्शन मान में **सबसे तेज वृद्धि** की दिशा में इंगित करता है।
4. **पैरामीटर अपडेट करें**: प्रत्येक पैरामीटर को उसके ढाल की **विपरीत दिशा** में थोड़ा सा कदम उठाएं। इस चरण के आकार को **सीखने की दर** नामक एक हाइपरपैरामीटर द्वारा नियंत्रित किया जाता है (आमतौर पर *η* के रूप में दर्शाया जाता है)। अपडेट सूत्र है: पैरामीटर<sub>नया</sub> = पैरामीटर<sub>पुराना</sub> − *η* × ढाल।
5. **दोहराएं**: लगातार 2 से 4 चरणों को हजारों बार दोहराएं। प्रत्येक पुनरावृत्ति मॉडल मापदंडों को ठीक करती है, जिससे कलन मान धीरे-धीरे कम हो जाता है। जब कलन मान अब महत्वपूर्ण रूप से कम नहीं होता है, तो एल्गोरिदम एक स्थानीय या वैश्विक न्यूनतम बिंदु पर \"अभिशरण\" करता है, और सीखने की प्रक्रिया समाप्त होती है।
- एल्गोरिदम वेरिएंट: प्रत्येक पुनरावृत्ति में उपयोग किए जाने वाले डेटा की मात्रा के आधार पर, ढाल वंश के कई वेरिएंट हैं, जैसे कि बैच GD, स्टोकेस्टिक GD (SGD), और मिनी-बैच GD, जो कम्प्यूटेशनल दक्षता और अभिसरण स्थिरता के बीच अलग-अलग ट्रेड-ऑफ प्रदान करते हैं।
गणित एक एकीकृत भाषा है जो सभी आधुनिक AI प्रतिमानों को जोड़ती है। चाहे वह सरल रैखिक प्रतिगमन हो, जटिल समर्थन वेक्टर मशीनें हों, या विशाल गहरे तंत्रिका नेटवर्क हों, उनकी सीखने का अंतर्निहित तर्क समान है: एक मॉडल को परिभाषित करें, एक कलन फंक्शन को परिभाषित करें, और फिर उस कलन फंक्शन को कम करने वाले मापदंडों को खोजने के लिए एक अ
भीष्ट अनुकूलन एल्गोरिदम (जैसे ढाल वंश) का उपयोग करें। "न्यूनीकरण नुकसान" पर आधारित यह गणितीय ढांचा वह सच्चा मूल तर्क है कि मशीनें डेटा से कैसे सीखती हैं।
AI का गणितीय तर्क प्रोग्रामिंग के पारंपरिक तर्क से एक मूलभूत बदलाव को भी दर्शाता है। पारंपरिक प्रोग्रामिंग नियतात्मक और सटीक है। दूसरी ओर, AI संभाव्य और अनुमानित है। जैसा कि शोध ने दिखाया है, AI का लक्ष्य आमतौर पर एक सिद्ध रूप से सही समाधान खोजना नहीं है (जो अक्सर जटिल वास्तविक दुनिया की समस्याओं के लिए असंभव होता है), लेकिन एक अनुमानित समाधान खोजना जो "पर्याप्त रूप से अच्छा" हो। AI की "ब्लैक बॉक्स" विशेषता इस बदलाव का प्रत्यक्ष परिणाम है। हम यह माप सकते हैं कि यह प्रभावी ** है या नहीं** इसके नुकसान या सटीकता का मूल्यांकन करके, लेकिन यह कैसे काम करता है इसे क्रमिक स्पष्ट तर्क के साथ समझाना मुश्किल है, जैसा कि हम पारंपरिक एल्गोरिदम के साथ कर सकते हैं। ऐसा इसलिए है क्योंकि AI का "समाधान" मानव-पठनीय नियमों का एक सेट नहीं है, बल्कि लाखों अनुकूलित संख्यात्मक मापदंडों द्वारा एन्कोड किया गया एक उच्च-आयामी जटिल फंक्शन है। इसका अंतर्निहित "तर्क" कलन फंक्शन द्वारा गठित बहुआयामी स्थान के ज्यामितीय आकारिकी में सन्निहित है, न कि शब्दार्थ नियमों में।
भाग 3: सीखने की विधियां - AI ज्ञान कैसे प्राप्त करता है
मूल गणितीय सिद्धांतों के आधार पर, AI ने तीन प्राथमिक सीखने की रणनीतियों, या "सीखने के प्रतिमानों" को विकसित किया है। इन प्रतिमानों को प्रशिक्षण के दौरान AI प्रणाली के लिए उपलब्ध डेटा और फीडबैक संकेतों के प्रकार के आधार पर वर्गीकृत किया जाता है, अर्थात्: पर्यवेक्षित शिक्षण, अप्रशिक्षित शिक्षण और सुदृढीकरण शिक्षण।
3.1 पर्यवेक्षित शिक्षण: एक संरक्षक के साथ सीखना
पर्यवेक्षित शिक्षण सबसे व्यापक रूप से इस्तेमाल किया जाने वाला मशीन लर्निंग प्रतिमान है।
मूल तर्क: मॉडल एक लेबल वाले डेटासेट से सीखता है। इस डेटासेट में, प्रत्येक इनपुट नमूना स्पष्ट रूप से सही आउटपुट उत्तर के साथ जोड़ा जाता है। यह प्रक्रिया एक छात्र की मानक उत्तरों के साथ अभ्यासों के एक सेट के साथ परीक्षा की तैयारी करने के समान है।
सीखने की प्रक्रिया: मॉडल एक इनपुट नमूने के लिए भविष्यवाणी करता है, और फिर भविष्यवाणी की तुलना सच्चे लेबल के साथ करता है, त्रुटि (नुकसान) की गणना करता है। फिर इस त्रुटि को कम करने के लिए ढाल वंश जैसे अनुकूलन एल्गोरिदम का उपयोग मॉडल के आंतरिक मापदंडों को समायोजित करने के लिए किया जाता है।
प्रमुख कार्य और एल्गोरिदम:
वर्गीकरण: एक अलग श्रेणी लेबल की भविष्यवाणी करें। उदाहरण के लिए, यह आंकना कि क्या कोई ईमेल "स्पैम" है या "स्पैम नहीं", या यह पहचानना कि क्या किसी तस्वीर में कोई जानवर "बिल्ली" है या "कुत्ता"। सामान्य एल्गोरिदम में लॉजिस्टिक प्रतिगमन, निर्णय पेड़ और समर्थन वेक्टर मशीनें (SVM) शामिल हैं।
प्रतिगमन: एक निरंतर संख्यात्मक मान की भविष्यवाणी करें। उदाहरण के लिए, एक घर की कीमत या कल के तापमान की भविष्यवाणी करना।
सामान्य एल्गोरिदम में लॉजिस्टिक प्रतिगमन, निर्णय पेड़ और समर्थन वेक्टर मशीनें (SVM) शामिल हैं। सामान्य एल्गोरिदम में रैखिक प्रतिगमन और यादृच्छिक वन शामिल हैं।
- डेटा आवश्यकताएँ: पर्यवेक्षित शिक्षण की सफलता बहुत अधिक मात्रा में उच्च गुणवत्ता वाले, मैन्युअल रूप से लेबल किए गए डेटा पर निर्भर करती है। इस लेबल किए गए डेटा को प्राप्त करना आमतौर पर महंगा और समय लेने वाला होता है, जो इस विधि के लिए एक बड़ी बाधा है।
3.2 अप्रशिक्षित शिक्षण: बिना किसी संरक्षक के सीखना
अ प्रशिक्ष