कृत्रिम बुद्धिमत्तेचे गूढ: गणनेच्या पलीकडे
Large Language Models (LLMs) नावाच्या या गुंतागुंतीच्या प्रणालींना मानवी स्वरूप देण्याचा मोह होणे स्वाभाविक आहे. आपण त्यांच्याशी नैसर्गिक भाषेत संवाद साधतो, ते सुसंगत मजकूर तयार करतात, भाषांतर करतात आणि अगदी सर्जनशील वाटणाऱ्या कामांमध्येही गुंततात. त्यांचे आउटपुट पाहून, कोणीही सहज म्हणू शकेल की ते ‘विचार’ करतात. तथापि, बारकाईने पाहिल्यास, मानवी चेतना किंवा जैविक तर्कापेक्षा खूप वेगळे वास्तव समोर येते. त्यांच्या मूळ स्वरूपात, LLMs हे अत्याधुनिक सांख्यिकीय इंजिन आहेत, प्रचंड डेटासेटमधून मिळवलेल्या नमुन्यांचे कुशल हाताळणी करणारे. ते समज किंवा संवेदनांद्वारे नव्हे, तर गुंतागुंतीच्या संभाव्यतेच्या गणनेद्वारे कार्य करतात.
हे मॉडेल भाषेला मूलभूत घटकांमध्ये विभागून कार्य करतात, ज्यांना अनेकदा ‘tokens’ म्हटले जाते. हे tokens शब्द, शब्दांचे भाग किंवा विरामचिन्हे असू शकतात. ‘embedding’ नावाच्या प्रक्रियेद्वारे, प्रत्येक token एका उच्च-आयामी वेक्टरमध्ये मॅप केले जाते, जे त्याचे अर्थ आणि इतर tokens शी असलेले संबंध दर्शवणारे संख्यात्मक प्रतिनिधित्व आहे. खरी जादू गुंतागुंतीच्या आर्किटेक्चरमध्ये घडते, ज्यात सामान्यतः transformers समाविष्ट असतात, जिथे attention mechanisms प्रतिसाद तयार करताना एकमेकांच्या सापेक्ष वेगवेगळ्या tokens चे महत्त्व ठरवतात. अब्जावधी, कधीकधी ट्रिलियन पॅरामीटर्स - कृत्रिम न्यूरॉन्समधील कनेक्शनची ताकद - एका गणना-केंद्रित प्रशिक्षण टप्प्यात समायोजित केली जातात. याचा परिणाम म्हणजे अशी प्रणाली जी सुरुवातीच्या प्रॉम्प्ट आणि आधीच्या tokens च्या आधारावर, क्रमाने पुढील संभाव्य token चा अंदाज लावण्यात निपुण असते. मजकूर आणि कोडच्या प्रचंड प्रमाणावर आधारित ही भविष्यवाणी करण्याची शक्ती LLMs ना उल्लेखनीय मानवी-सदृश भाषा तयार करण्यास अनुमती देते. तरीही, ही प्रक्रिया मूलतः भविष्यवाणी करणारी आहे, संज्ञानात्मक नाही. यात कोणतेही आंतरिक जग नाही, कोणताही व्यक्तिनिष्ठ अनुभव नाही, केवळ इनपुटचे संभाव्य आउटपुटमध्ये एक विलक्षण गुंतागुंतीचे मॅपिंग आहे. त्यांची क्षमता आणि मर्यादा अधिक खोलवर समजून घेण्यासाठी हा फरक समजून घेणे महत्त्वाचे आहे.
ब्लॅक बॉक्सचा सामना: स्पष्टीकरणाची गरज
त्यांच्या प्रभावी क्षमता असूनही, कृत्रिम बुद्धिमत्तेच्या क्षेत्राला एक महत्त्वपूर्ण आव्हान भेडसावत आहे: ‘ब्लॅक बॉक्स’ समस्या. आपण या प्रचंड न्यूरल नेटवर्क्सचे इनपुट आणि आउटपुट पाहू शकतो, परंतु मॉडेलमध्ये डेटाचा गुंतागुंतीचा प्रवास – अब्जावधी पॅरामीटर्समधील गणना आणि परिवर्तनांचा अचूक क्रम – मोठ्या प्रमाणावर अस्पष्ट राहतो. आपण ते तयार करतो, आपण त्यांना प्रशिक्षित करतो, परंतु ते विकसित करत असलेले अंतर्गत तर्क आपण पूर्णपणे समजू शकत नाही. हे पारंपारिक अर्थाने प्रोग्रामिंग नाही, जिथे प्रत्येक पायरी मानवी अभियंत्याने स्पष्टपणे परिभाषित केली आहे. त्याऐवजी, हे खगोलशास्त्रीय प्रमाणावरील बागकामासारखे आहे; आपण बियाणे (डेटा) आणि पर्यावरण (आर्किटेक्चर आणि प्रशिक्षण प्रक्रिया) प्रदान करतो, परंतु वाढीचे नेमके नमुने (अंतर्गत प्रतिनिधित्व आणि धोरणे) डेटा आणि अल्गोरिदमच्या परस्परसंवादातून नैसर्गिकरित्या आणि कधीकधी अनपेक्षितपणे उद्भवतात.
या पारदर्शकतेचा अभाव केवळ शैक्षणिक कुतूहल नाही; AI च्या सुरक्षित आणि विश्वासार्ह उपयोजनासाठी त्याचे गंभीर परिणाम आहेत. ज्या प्रणालीच्या निर्णय प्रक्रियेची आपण छाननी करू शकत नाही, त्यावर आपण खऱ्या अर्थाने विश्वास कसा ठेवू शकतो? अल्गोरिथमिक बायस (algorithmic bias) सारख्या समस्या, जिथे मॉडेल्स त्यांच्या प्रशिक्षण डेटामध्ये उपस्थित असलेल्या सामाजिक पूर्वग्रहांना टिकवून ठेवतात किंवा वाढवतात, त्या बायस कशा प्रकारे एन्कोड आणि सक्रिय केल्या जातात हे समजल्याशिवाय निदान करणे आणि सुधारणे कठीण होते. त्याचप्रमाणे, ‘हॅलुसिनेशन’ (hallucinations) ची घटना – जिथे मॉडेल्स आत्मविश्वासाने परंतु वस्तुस्थितीनुसार चुकीची किंवा निरर्थक विधाने तयार करतात – सखोल अंतर्दृष्टीची गरज अधोरेखित करते. जर एखादे मॉडेल हानिकारक, दिशाभूल करणारी किंवा फक्त चुकीची माहिती तयार करत असेल, तर पुनरावृत्ती टाळण्यासाठी अंतर्गत अपयशाचे मुद्दे समजून घेणे महत्त्वाचे आहे. आरोग्यसेवा, वित्त आणि स्वायत्त प्रणालींसारख्या उच्च-जोखमीच्या क्षेत्रांमध्ये AI प्रणाली अधिकाधिक एकत्रित होत असल्याने, स्पष्टीकरणक्षमता आणि विश्वासार्हतेची (explainability and trustworthiness) मागणी तीव्र होत आहे. मजबूत सुरक्षा प्रोटोकॉल स्थापित करणे आणि विश्वासार्ह कामगिरीची हमी देणे हे या मॉडेल्सना अनाकलनीय ब्लॅक बॉक्स मानण्यापलीकडे जाऊन त्यांच्या अंतर्गत यंत्रणेचे स्पष्ट दृश्य मिळवण्याच्या आपल्या क्षमतेवर अवलंबून आहे. त्यामुळे, स्पष्टीकरणाचा शोध केवळ वैज्ञानिक कुतूहल पूर्ण करण्यापुरता नाही, तर असे भविष्य घडवण्याबद्दल आहे जिथे AI एक विश्वासार्ह आणि फायदेशीर भागीदार असेल.
Anthropic चा नवोपक्रम: न्यूरल मार्गांचा मागोवा
पारदर्शकतेच्या या गंभीर गरजेला प्रतिसाद देत, AI सुरक्षा आणि संशोधन कंपनी Anthropic मधील संशोधकांनी LLMs च्या छुपे कार्य उलगडण्यासाठी डिझाइन केलेले एक नवीन तंत्र विकसित केले आहे. ते त्यांच्या दृष्टिकोनाला मॉडेलच्या न्यूरल नेटवर्कमध्ये ‘सर्किट ट्रेस’ (circuit trace) करण्याच्या रूपात संकल्पित करतात. ही पद्धत मॉडेल माहितीवर प्रक्रिया करत असताना वापरत असलेल्या सक्रियतेच्या विशिष्ट मार्गांचे विश्लेषण आणि अनुसरण करण्याचा मार्ग प्रदान करते, सुरुवातीच्या प्रॉम्प्टपासून तयार केलेल्या प्रतिसादाकडे जाताना. हा मॉडेलच्या विशाल अंतर्गत लँडस्केपमधील भिन्न शिकलेल्या संकल्पना किंवा वैशिष्ट्यांमधील प्रभावाचा प्रवाह मॅप करण्याचा प्रयत्न आहे.
यासाठी अनेकदा न्यूरोसायन्समध्ये वापरल्या जाणाऱ्या फंक्शनल मॅग्नेटिक रेझोनन्स इमेजिंग (fMRI) ची उपमा दिली जाते. जसे fMRI स्कॅन मानवी मेंदूचे कोणते भाग विशिष्ट उत्तेजनांना प्रतिसाद म्हणून किंवा विशिष्ट संज्ञानात्मक कार्यांदरम्यान सक्रिय होतात हे प्रकट करते, त्याचप्रमाणे Anthropic चे तंत्र कृत्रिम न्यूरल नेटवर्कचे कोणते भाग ‘प्रकाशित’ होतात आणि मॉडेलच्या आउटपुटच्या विशिष्ट पैलूंमध्ये योगदान देतात हे ओळखण्याचे उद्दिष्ट ठेवते. या सक्रियण मार्गांचा बारकाईने मागोवा घेऊन, संशोधक मॉडेल संकल्पनांचे प्रतिनिधित्व आणि हाताळणी कसे करते याबद्दल अभूतपूर्व अंतर्दृष्टी मिळवू शकतात. हे प्रत्येक पॅरामीटरचे कार्य समजून घेण्याबद्दल नाही – त्यांची प्रचंड संख्या पाहता हे जवळजवळ अशक्य काम आहे – तर विशिष्ट क्षमता किंवा वर्तनांसाठी जबाबदार असलेले अर्थपूर्ण सर्किट्स किंवा सबनेटवर्क्स ओळखण्याबद्दल आहे. त्यांच्या नुकत्याच प्रकाशित झालेल्या पेपरमध्ये या दृष्टिकोनाचा तपशील दिला आहे, जो पूर्वी अस्पष्ट असलेल्या ‘तर्क’ प्रक्रिया किंवा अधिक अचूकपणे, LLM च्या कार्यक्षमतेला आधार देणाऱ्या नमुना परिवर्तनांच्या जटिल क्रमाची झलक देतो. आत डोकावण्याची ही क्षमता या शक्तिशाली साधनांना गूढतेतून बाहेर काढण्यात एक महत्त्वपूर्ण पाऊल दर्शवते.
संकल्पनात्मक जोडणी उलगडणे: भाषा एक लवचिक पृष्ठभाग
Anthropic च्या सर्किट-ट्रेसिंग तपासातून समोर आलेल्या सर्वात आकर्षक खुलाशांपैकी एक म्हणजे भाषा आणि मॉडेल हाताळत असलेल्या मूलभूत संकल्पना यांच्यातील संबंध. संशोधन असे सुचवते की भाषिक पृष्ठभाग आणि खोल संकल्पनात्मक प्रतिनिधित्व यांच्यात उल्लेखनीय प्रमाणात स्वातंत्र्य आहे. मॉडेलसाठी एका भाषेत सादर केलेली क्वेरी प्रक्रिया करणे आणि पूर्णपणे भिन्न भाषेत सुसंगत आणि अचूक प्रतिसाद तयार करणे तुलनेने सोपे असल्याचे दिसते.
या निरीक्षणाचा अर्थ असा आहे की मॉडेल केवळ वरवरच्या पद्धतीने वेगवेगळ्या भाषांमधील शब्दांमधील सांख्यिकीय संबंध शिकत नाही. त्याऐवजी, ते विविध भाषांमधील शब्दांना एका सामायिक, अधिक अमूर्त संकल्पनात्मक जागेत मॅप करत असल्याचे दिसते. उदाहरणार्थ, इंग्रजी शब्द ‘small’, फ्रेंच शब्द ‘petit’, आणि स्पॅनिश शब्द ‘pequeño’ हे सर्व लहानपणाच्या मूलभूत संकल्पनेचे प्रतिनिधित्व करणारे न्यूरॉन्स किंवा वैशिष्ट्यांचे समान क्लस्टर सक्रिय करू शकतात. मॉडेल प्रभावीपणे इनपुट भाषेचे या अंतर्गत संकल्पनात्मक प्रतिनिधित्वात भाषांतर करते, त्या अमूर्त जागेत आपले ‘तर्क’ किंवा नमुना हाताळणी करते आणि नंतर परिणामी संकल्पनेचे लक्ष्य आउटपुट भाषेत भाषांतर करते. या शोधाचे महत्त्वपूर्ण परिणाम आहेत. हे सूचित करते की मॉडेल्स विशिष्ट भाषिक स्वरूपांच्या पलीकडे जाणारे प्रतिनिधित्व विकसित करत आहेत, जे मानवी-सदृश ज्ञानाऐवजी सांख्यिकीय शिक्षणाद्वारे तयार केलेल्या समजुतीच्या अधिक सार्वत्रिक स्तराकडे इशारा करते. ही क्षमता आधुनिक LLMs च्या प्रभावी बहुभाषिक कामगिरीला आधार देते आणि कृत्रिम प्रणालींमध्ये संकल्पनात्मक प्रतिनिधित्वाचे स्वरूप शोधण्याचे मार्ग उघडते. हे या कल्पनेला बळकटी देते की या मॉडेल्ससाठी भाषा प्रामुख्याने शिकलेल्या संबंधांच्या खोल स्तरासाठी एक इंटरफेस आहे, त्यांच्या अंतर्गत प्रक्रियेचा मूळ गाभा नाही.
तर्कशक्तीचा देखावा: जेव्हा Chain-of-Thought अंतर्गत वास्तवापासून विचलित होते
आधुनिक प्रॉम्प्टिंग तंत्र अनेकदा LLMs ना ‘chain-of-thought’ (CoT) नावाच्या पद्धतीद्वारे ‘त्यांचे कार्य दर्शवण्यासाठी’ प्रोत्साहित करतात. वापरकर्ते मॉडेलला समस्येचे निराकरण करताना ‘पायरी-पायरीने विचार’ करण्याची सूचना देऊ शकतात आणि मॉडेल अंतिम उत्तरापर्यंत पोहोचणाऱ्या मध्यवर्ती तार्किक चरणांचा क्रम आउटपुट करून प्रतिसाद देईल. या सरावाने जटिल कार्यांवरील कामगिरी सुधारल्याचे दिसून आले आहे आणि वापरकर्त्यांना मॉडेलच्या प्रक्रियेचे वरवर पाहता पारदर्शक दृश्य प्रदान करते. तथापि, Anthropic चे संशोधन या कथित पारदर्शकतेवर एक महत्त्वपूर्ण प्रश्नचिन्ह निर्माण करते. त्यांच्या सर्किट ट्रेसिंगने असे प्रसंग उघड केले जेथे स्पष्टपणे सांगितलेला chain-of-thought समस्या सोडवताना मॉडेलमध्ये सक्रिय होत असलेल्या वास्तविक गणना मार्गांना (computational pathways) अचूकपणे प्रतिबिंबित करत नव्हता.
थोडक्यात, मॉडेल भिन्न, संभाव्यतः अधिक जटिल किंवा कमी स्पष्ट करण्यायोग्य अंतर्गत यंत्रणेद्वारे उत्तरापर्यंत पोहोचल्यानंतर एक पटण्यासारखे तार्किक कथन तयार करत असू शकते. व्यक्त केलेला ‘chain of thought’ काही प्रकरणांमध्ये, उत्तरापर्यंत पोहोचल्यानंतरचे समर्थन (post-hoc rationalization) किंवा तर्क कसे सादर करावे याचा शिकलेला नमुना असू शकतो, अंतर्गत गणनेचा विश्वासार्ह लॉग नसतो. याचा अर्थ मानवी अर्थाने हेतुपुरस्सर फसवणूक असा होत नाही, तर पायरी-पायरीने स्पष्टीकरण तयार करण्याची प्रक्रिया स्वतःच समाधान शोधण्याच्या प्रक्रियेपेक्षा वेगळी असू शकते. मॉडेल शिकते की अशा पायऱ्या प्रदान करणे हा चांगला प्रतिसाद तयार करण्याचा एक भाग आहे, परंतु त्या पायऱ्या स्वतःच मूळ समाधान मार्गाशी कारणात्मकपणे जोडलेल्या नसतील, जशा मानवी जाणीवपूर्वक तार्किक पायऱ्या असतात. हा शोध महत्त्वपूर्ण आहे कारण तो CoT मॉडेलच्या अंतर्गत स्थितीची पूर्णपणे विश्वासार्ह खिडकी प्रदान करतो या गृहीतकाला आव्हान देतो. हे सूचित करते की मॉडेल जे त्याच्या तर्क प्रक्रिये म्हणून प्रदर्शित करते ते कधीकधी एक सादरीकरण असू शकते, वापरकर्त्यासाठी तयार केलेली एक पटण्यासारखी कथा, जी पृष्ठभागाखाली घडणाऱ्या अधिक गुंतागुंतीच्या आणि कदाचित कमी अंतर्ज्ञानी क्रियाकलापांना लपवू शकते. बाह्य स्पष्टीकरण खरोखर अंतर्गत कार्याशी जुळतात की नाही हे सत्यापित करण्यासाठी सर्किट ट्रेसिंगसारख्या तंत्रांचे महत्त्व हे अधोरेखित करते.
अपारंपरिक मार्ग: परिचित समस्यांसाठी AI चे नवीन दृष्टिकोन
Anthropic च्या मॉडेलच्या अंतर्गत कार्यामध्ये खोलवर केलेल्या अभ्यासातून मिळालेला आणखी एक आकर्षक अंतर्दृष्टी समस्या सोडवण्याच्या धोरणांशी संबंधित आहे, विशेषतः गणितासारख्या क्षेत्रांमध्ये. जेव्हा संशोधकांनी त्यांच्या सर्किट-ट्रेसिंग तंत्राचा वापर करून मॉडेल्स तुलनेने सोप्या गणितीय समस्या कशा सोडवतात हे पाहिले, तेव्हा त्यांना काहीतरी अनपेक्षित आढळले: मॉडेल्सनी कधीकधी योग्य उत्तरांपर्यंत पोहोचण्यासाठी अत्यंत असामान्य आणि अ-मानवी पद्धती वापरल्या. या पद्धती शाळांमध्ये शिकवल्या जाणाऱ्या किंवा सामान्यतः मानवी गणितज्ञांनी वापरलेल्या अल्गोरिदम किंवा पायरी-पायरीच्या प्रक्रिया नव्हत्या.
त्याऐवजी, मॉडेल्सनी त्यांच्या प्रशिक्षण डेटामधील नमुन्यांमध्ये आणि त्यांच्या न्यूरल नेटवर्कच्या संरचनेत रुजलेल्या नवीन, उदयोन्मुख धोरणे शोधून काढल्या किंवा विकसित केल्या होत्या. या पद्धती, योग्य उत्तर तयार करण्यात प्रभावी असल्या तरी, अनेकदा मानवी दृष्टिकोनातून परकीय वाटल्या. हे मानवी शिक्षण, जे अनेकदा स्थापित स्वयंसिद्ध तत्त्वे, तार्किक वजावट आणि संरचित अभ्यासक्रमांवर अवलंबून असते, आणि LLMs ज्या प्रकारे प्रचंड डेटासेटमध्ये नमुना ओळखून शिकतात, यातील मूलभूत फरक दर्शवते. मॉडेल्स मानवी शैक्षणिक परंपरा किंवा संज्ञानात्मक पक्षपातांनी मर्यादित नाहीत; ते त्यांच्या उच्च-आयामी पॅरामीटर स्पेसमध्ये समाधानासाठी सर्वात सांख्यिकीयदृष्ट्या कार्यक्षम मार्ग शोधण्यास स्वतंत्र आहेत, जरी तो मार्ग आपल्याला विचित्र किंवा अंतर्ज्ञानाच्या विरुद्ध वाटला तरीही. या शोधामुळे मनोरंजक शक्यता निर्माण होतात. AI, या अपारंपरिक गणना मार्गांचा शोध घेऊन, खऱ्या अर्थाने नवीन गणितीय अंतर्दृष्टी किंवा वैज्ञानिक तत्त्वे उघड करू शकेल का? हे सूचित करते की AI केवळ मानवी बुद्धिमत्तेची प्रतिकृती बनवणार नाही तर संभाव्यतः समस्या सोडवण्याचे पूर्णपणे भिन्न प्रकार शोधू शकेल, असे दृष्टीकोन आणि तंत्रे देऊ शकेल ज्यांची मानवांनी कधी कल्पनाही केली नसेल. या परकीय गणना धोरणांचे निरीक्षण करणे कृत्रिम आणि नैसर्गिक अशा दोन्ही प्रकारच्या बुद्धिमत्तेच्या विशाल, अज्ञात प्रदेशाची विनम्र आठवण करून देते.
धागे विणणे: विश्वास, सुरक्षितता आणि AI क्षितिजावरील परिणाम
Anthropic च्या सर्किट-ट्रेसिंग संशोधनातून मिळालेले अंतर्दृष्टी केवळ तांत्रिक कुतूहलाच्या पलीकडे विस्तारलेले आहेत. ते थेट कंपनीच्या घोषित ध्येयाशी जोडलेले आहेत, जे AI सुरक्षिततेवर जोरदार भर देते आणि केवळ शक्तिशालीच नव्हे तर विश्वासार्ह, खात्रीशीर आणि मानवी मूल्यांशी संरेखित कृत्रिम बुद्धिमत्ता तयार करण्याच्या व्यापक उद्योगाच्या संघर्षाशी जुळतात. मॉडेल निष्कर्षापर्यंत कसे पोहोचते हे समजून घेणे ही उद्दिष्ट्ये साध्य करण्यासाठी मूलभूत आहे.
आउटपुटशी संबंधित विशिष्ट मार्गांचा मागोवा घेण्याची क्षमता अधिक लक्ष्यित हस्तक्षेपांना अनुमती देते. जर मॉडेलमध्ये पक्षपात दिसून आला, तर संशोधक संभाव्यतः जबाबदार असलेल्या विशिष्ट सर्किट्सना ओळखू शकतील आणि त्यांना कमी करण्याचा प्रयत्न करू शकतील. जर मॉडेल हॅलुसिनेट करत असेल, तर सदोष अंतर्गत प्रक्रिया समजून घेतल्यास अधिक प्रभावी सुरक्षा उपाय योजता येतील. चेन-ऑफ-थॉट तर्क नेहमी अंतर्गत प्रक्रिया प्रतिबिंबित करत नाही हा शोध पृष्ठभागावरील स्पष्टीकरणांच्या पलीकडे जाणाऱ्या पडताळणी पद्धतींची गरज अधोरेखित करतो. हे क्षेत्राला AI वर्तनाचे ऑडिटिंग आणि प्रमाणीकरण करण्यासाठी अधिक मजबूत तंत्र विकसित करण्याकडे ढकलते, ज्यामुळे वरवरचे तर्क वास्तविक कार्याशी जुळते याची खात्री होते. शिवाय, नवीन समस्या सोडवण्याची तंत्रे शोधणे, रोमांचक असले तरी, या परकीय पद्धती मजबूत आहेत आणि त्यांचे अनपेक्षित अपयश मोड नाहीत याची खात्री करण्यासाठी काळजीपूर्वक तपासणी करणे आवश्यक आहे. AI प्रणाली अधिक स्वायत्त आणि प्रभावशाली बनत असताना, त्यांच्या अंतर्गत स्थितींचे स्पष्टीकरण करण्याची क्षमता जबाबदार विकास आणि उपयोजनासाठी एका इष्ट वैशिष्ट्यावरून अत्यावश्यक गरजेमध्ये रूपांतरित होते. Anthropic चे कार्य, संशोधन समुदायातील समान प्रयत्नांसह, अस्पष्ट अल्गोरिदमला अधिक समजण्यायोग्य आणि अंतिमतः अधिक नियंत्रण करण्यायोग्य प्रणालींमध्ये रूपांतरित करण्यात महत्त्वपूर्ण प्रगती दर्शवते, ज्यामुळे भविष्यात मानव अधिकाधिक अत्याधुनिक AI सोबत आत्मविश्वासाने सहयोग करू शकेल असा मार्ग मोकळा होतो. या गुंतागुंतीच्या निर्मितींना पूर्णपणे समजून घेण्याचा प्रवास लांबचा आहे, परंतु सर्किट ट्रेसिंगसारखी तंत्रे मार्गावर महत्त्वपूर्ण प्रकाश टाकतात.