इल्या सटस्केव्हर, OpenAI चे सह-संस्थापक आणि माजी चीफ सायंटिस्ट, यांनी भविष्यासाठी एक अनोखी दृष्टी ठेवली होती – ज्यात डोomsday बंकरचा समावेश होता. हे विज्ञान कथेवर आधारित नव्हते; त्याऐवजी, आर्टिफिशिअल जनरल इंटेलिजन्स (AGI) च्या निर्मितीशी संबंधित संभाव्य धोक्यांच्या त्यांच्या सखोल समजुतीतून ते उद्भवले, जे मानवी बुद्धीला मागे टाकणारे AI चे एक स्तर आहे. सटस्केव्हरची योजना, OpenAI सोडण्यापूर्वी काही महिने तयार करण्यात आली होती, ज्यामध्ये AI संशोधकांनी AGI चे ध्येय साध्य केल्यानंतर त्यांच्यासाठी एक सुरक्षित आश्रयस्थान उपलब्ध करून देणे हा उद्देश होता.
हाय-टेक निवाराची उत्पत्ती
सटस्केव्हरचा प्रस्ताव अनिवार्य नव्हता. त्यांनी कथितपणे त्यांच्या टीमला आश्वासन दिले की बंकरमध्ये प्रवेश करणे पूर्णपणे ऐच्छिक असेल. हे AGI च्या धोक्यांवर एक सूक्ष्म दृष्टीकोन दर्शवते, ज्यामुळे विनाशकारी परिणामांची शक्यता लक्षात येते आणि अशा धोक्यांचा सामना करताना व्यक्तीच्या स्वायत्ततेचा आदर केला जातो. त्यांच्या कृतीतून AI विकासातील प्रचंड संधी आणि संभाव्य विनाशकारी धोके या दोहोंबद्दलची त्यांची सखोल जाणीव दिसून येते. AI सुरक्षा संशोधनातील एक प्रमुख आवाज म्हणून, सटस्केव्हर यांनी मानवासारखा विचार आणि तर्क करण्यास सक्षम असलेल्या प्रगत डीप लर्निंग न्यूरल नेटवर्क तयार करण्यासाठी आपले करिअर समर्पित केले.
एजीआय होली ग्रेल
आर्टिफिशियल जनरल इंटेलिजन्स (एजीआय) – मानवी स्तरावरील संज्ञानात्मक क्षमता असलेल्या मशीन तयार करण्याचे अंतिम ध्येय – हे AI संशोधकांसाठी अजूनही महत्त्वाचे ध्येय आहे. हे सिलिकॉनवर आधारित नवीन प्रकारच्या सजीवसृष्टीची निर्मिती करण्याची क्षमता दर्शवते. सटस्केव्हर केवळ हे ध्येय साध्य करण्यावरच नव्हे, तर त्याचे संभाव्य परिणाम कमी करण्यावरही लक्ष केंद्रित करत होते. त्यांच्या बंकर प्रस्तावामुळे या चिंतेचे गांभीर्य आणि AGI शी संबंधित धोके व्यवस्थापित करण्यासाठी सक्रिय उपायांची आवश्यकता अधोरेखित होते.
प्रतिबंधात्मक उपाय
सटस्केव्हरचा डोomsday निवारा हे भविष्यवादी कल्पनारम्य नव्हते; AGI साध्य झाल्यावर OpenAI संशोधकांचे संरक्षण करण्यासाठी डिझाइन केलेली ती एक ठोस योजना होती. त्यांनी 2023 मध्ये त्यांच्या टीमला सांगितल्याप्रमाणे, त्यांच्या बाहेर पडण्याच्या काही महिन्यांपूर्वी, बंकर अशा जगात आवश्यक संरक्षण देईल जिथे अशा शक्तिशाली तंत्रज्ञानाकडे जगभरातील सरकारांचे लक्ष वेधले जाईल. त्यांचे तर्क सोपे होते: AGI, त्याच्या स्वभावामुळे, प्रचंड शक्तीचे तंत्रज्ञान असेल, जे संभाव्यतः अस्थिर करणारे असेल आणि त्याला काळजीपूर्वक जतन करण्याची आवश्यकता असेल.
संरक्षण आणि निवड
सटस्केव्हरने बंकरमध्ये प्रवेश करणे ऐच्छिक असेल असे आश्वासन दिले, जे खबरदारी आणि वैयक्तिक स्वातंत्र्य यांच्यातील संतुलन दर्शवते. त्यांची दृष्टी लॉकडाऊन लादण्याबद्दल नव्हती, तर AGI च्या पार्श्वभूमीवर असुरक्षित वाटणाऱ्यांसाठी एक सुरक्षित आश्रयस्थान उपलब्ध करून देण्याबद्दल होती. हा दृष्टिकोन प्रगत AI च्या धोके आणि फायद्यांविषयी AI समुदायातील विविध दृष्टीकोणांना महत्त्व देतो, हे सुनिश्चित करतो की अस्तित्व धोक्यात आले तरी वैयक्तिक निवडींचा आदर केला जाईल.
अल्टमन संघर्ष आणि सटस्केव्हरचे प्रस्थान
अलीकडील वृत्तानुसार, OpenAI च्या दिशेबद्दल सटस्केव्हरच्या चिंता, विशेषत: पारदर्शकतापेक्षा आर्थिक लाभांना प्राधान्य देणे, सॅम अल्टमन यांच्या हकालपट्टीच्या घटनेत महत्त्वपूर्ण भूमिका बजावते. सटस्केव्हर, चीफ टेक्नॉलॉजी ऑफिसर मीरा मुराती यांच्यासह, अल्टमन यांच्या कथित महसूल निर्मितीवर जास्त लक्ष केंद्रित करण्याबद्दल चिंता व्यक्त केली होती, ज्यामुळे जबाबदार AI विकासाकडे दुर्लक्ष झाले. अल्टमन यांना त्वरित पुन्हा नियुक्त केले गेले असले तरी, त्यानंतर वर्षभरात सटस्केव्हर आणि मुराती या दोघांचेही झालेले प्रस्थान OpenAI मधील नैतिक आणि धोरणात्मक प्रा priorities्यांमधील खोल मतभेद दर्शवते.