OpenAI: वह कहानी जिसने मचाया बवाल

2019 में, MIT टेक्नोलॉजी रिव्यू की अनुभवी रिपोर्टर करेन हाओ ने अपने संपादक को OpenAI के बारे में एक कहानी सुनाई, जो उस समय काफी हद तक रडार के नीचे काम कर रही थी। जो सामने आया वह अप्रत्याशित मोड़ों से भरी एक यात्रा थी, जो इस हद तक उजागर करती है कि OpenAI की महत्वाकांक्षाएँ उसके शुरुआती लक्ष्यों से कितनी अलग हो गई थीं।

मैंने पहली बार 7 अगस्त, 2019 को OpenAI के कार्यालयों में कदम रखा। उस समय कंपनी के CTO ग्रेग ब्रॉकमैन ने एक झिझकती मुस्कान के साथ मेरा अभिवादन किया, यह स्वीकार करते हुए कि इस तरह की व्यापक पहुंच प्रदान करना उनके लिए अभूतपूर्व था।

जबकि OpenAI आम जनता के लिए अपेक्षाकृत अज्ञात हो सकता है, मैं, कृत्रिम बुद्धिमत्ता के लगातार विकसित हो रहे परिदृश्य को कवर करने वाले एक रिपोर्टर के रूप में, इसके विकास की बारीकी से निगरानी कर रहा था।

OpenAI के प्रारंभिक दिन और बदलते ज्वार

2019 से पहले, OpenAI को AI अनुसंधान समुदाय में कुछ हद तक बाहरी माना जाता था। एक दशक के भीतर आर्टिफिशियल जनरल इंटेलिजेंस (AGI) प्राप्त करने के इसके बोल्ड दावे को कई लोगों ने संदेह की दृष्टि से देखा था। महत्वपूर्ण फंडिंग के बावजूद, कंपनी में स्पष्ट दिशा का अभाव था, और इसके विपणन प्रयासों को अक्सर अन्य विशेषज्ञों द्वारा अनूठा माने जाने वाले अनुसंधान को बढ़ा-चढ़ाकर पेश करने के रूप में माना जाता था। फिर भी, OpenAI ने ईर्ष्या भी आकर्षित की। एक गैर-लाभकारी संगठन के रूप में, इसने व्यवसायीकरण में कोई दिलचस्पी नहीं दिखाई, जिससे वित्तीय दबावों से मुक्त बौद्धिक अन्वेषण के लिए एक अनूठा वातावरण बना।

हालांकि, मेरी यात्रा से पहले के छह महीनों में, तेजी से बदलावों की एक श्रृंखला ने OpenAI की दिशा में एक महत्वपूर्ण बदलाव का संकेत दिया। पहला संकेत GPT-2 को वापस लेने का विवादास्पद निर्णय था, इसकी क्षमताओं को सार्वजनिक करने के बावजूद। इसके बाद सैम ऑल्टमैन की Y Combinator (YC) से विदाई के बाद CEO के रूप में नियुक्ति की घोषणा हुई, साथ ही एक "कैप्ड-प्रॉफिट" संरचना का निर्माण भी हुआ। इन विकासों के बीच, OpenAI ने Microsoft के साथ एक साझेदारी का खुलासा किया, जिससे तकनीकी दिग्गज को OpenAI की तकनीकों के व्यवसायीकरण में प्राथमिकता मिली और Microsoft Azure क्लाउड सेवाओं का विशेष उपयोग मिला।

इनमें से प्रत्येक घोषणा ने विवाद, अटकलें और बढ़ते ध्यान को जन्म दिया, जो तकनीकी उद्योग की सीमाओं से परे पहुंच गया। जैसे-जैसे बदलाव सामने आए, उनके महत्व को पूरी तरह से समझना मुश्किल था। हालांकि, यह स्पष्ट था कि OpenAI AI अनुसंधान और नीति निर्माताओं द्वारा प्रौद्योगिकी को समझने के तरीके पर काफी प्रभाव डालना शुरू कर रहा है। आंशिक रूप से लाभ के लिए व्यवसाय में संक्रमण करने के निर्णय से उद्योग और सरकार में व्यापक परिणाम होने की संभावना थी।

एक शाम, मेरे संपादक द्वारा प्रोत्साहित किए जाने पर, मैंने OpenAI के नीति निदेशक जैक क्लार्क से संपर्क किया, जिनसे मैंने पहले बात की थी। मैंने OpenAI पर एक प्रोफाइल प्रस्तावित किया, यह महसूस करते हुए कि यह कंपनी के इतिहास में एक महत्वपूर्ण क्षण था। क्लार्क ने मुझे संचार प्रमुख से मिलाया, जिन्होंने नेतृत्व का साक्षात्कार लेने और तीन दिनों के लिए कंपनी में एम्बेड करने के लिए एक निमंत्रण दिया।

OpenAI के अंदर: मिशन और महत्वाकांक्षा

ब्रॉकमैन और मैं मुख्य वैज्ञानिक इल्या Sutskever द्वारा एक कांच के बैठक कक्ष में शामिल हुए। अगल-बगल बैठे, उन्होंने एक-दूसरे की भूमिकाओं को पूरा किया। कोडर और कार्यान्वयनकर्ता ब्रॉकमैन एक सकारात्मक प्रभाव बनाने के लिए उत्सुक दिखाई दिए, जबकि शोधकर्ता और दार्शनिक Sutskever अधिक आराम और अलग दिखाई दिए।

मैंने OpenAI के मिशन के बारे में पूछकर शुरुआत की: लाभकारी AGI सुनिश्चित करना। दूसरों के मुकाबले इस समस्या में अरबों का निवेश क्यों करें?

OpenAI की स्थिति का बचाव करने में अच्छी तरह से वाकिफ ब्रॉकमैन ने कहा कि मानव क्षमताओं से परे जटिल समस्याओं को हल करने के लिए AGI महत्वपूर्ण है। उन्होंने जलवायु परिवर्तन और चिकित्सा को उदाहरण के रूप में उद्धृत किया, इन महत्वपूर्ण क्षेत्रों में डेटा की विशाल मात्रा का विश्लेषण करने और प्रगति को तेज करने के लिए AGI की क्षमता को दर्शाया।

उन्होंने एक दुर्लभ विकार वाले दोस्त के अनुभव को याद किया, जिसमें बताया गया कि कैसे AGI विशेषज्ञों को कुशलता से जोड़कर निदान और उपचार को सुव्यवस्थित कर सकता है।

फिर मैंने AGI और AI के बीच अंतर के बारे में पूछा।

AGI, जो कभी एक आला अवधारणा थी, ने OpenAI के प्रभाव के कारण काफी लोकप्रियता हासिल की थी। AGI एक काल्पनिक AI को संदर्भित करता है जो अधिकांश आर्थिक रूप से मूल्यवान कार्यों में मानव बुद्धि से मेल खाता है या उससे अधिक है। जबकि शोधकर्ताओं ने प्रगति की थी, मानव चेतना के अनुकरण की संभावना के बारे में बहस जारी रही।

दूसरी ओर, AI दोनों वर्तमान तकनीक और निकट भविष्य की क्षमताओं को संदर्भित करता है, जो जलवायु परिवर्तन शमन और स्वास्थ्य सेवा में अनुप्रयोगों का प्रदर्शन करता है।

Sutskever ने कहा कि AGI बुद्धिमान कंप्यूटरों को मनुष्यों की तुलना में अधिक कुशलता से संवाद और एक साथ काम करने में सक्षम करके वैश्विक चुनौतियों का समाधान कर सकता है, प्रोत्साहन समस्याओं को दरकिनार कर सकता है।

इस बयान ने मुझे यह सवाल करने के लिए प्रेरित किया कि क्या AGI का उद्देश्य मनुष्यों को बदलना था। ब्रॉकमैन ने जवाब दिया कि प्रौद्योगिकी को लोगों की सेवा करनी चाहिए और उनके जीवन की गुणवत्ता को बनाए रखते हुए "आर्थिक स्वतंत्रता" सुनिश्चित करनी चाहिए।

ब्रॉकमैन ने तर्क दिया कि OpenAI की भूमिका यह निर्धारित करना नहीं था कि AGI का निर्माण किया जाएगा या नहीं, बल्कि उन परिस्थितियों को प्रभावित करना था जिनके तहत इसे बनाया गया था। उन्होंने जोर देकर कहा कि उनका मिशन AGI का निर्माण और इसके आर्थिक लाभों को वितरित करके मानवता को लाभान्वित करना सुनिश्चित करना है।

हमारी बातचीत सीमित सफलता के साथ मंडलियों में जारी रही ठोस विवरण प्राप्त करने में। मैंने एक अलग दृष्टिकोण का प्रयास किया, प्रौद्योगिकी के संभावित नुकसान के बारे में पूछताछ की।

ब्रॉकमैन ने डीपफेक को एक संभावित नकारात्मक अनुप्रयोग के रूप में उद्धृत किया।

मैंने AI के पर्यावरणीय प्रभाव को उठाया।

Sutskever ने इस मुद्दे को स्वीकार किया लेकिन तर्क दिया कि AGI पर्यावरणीय लागत का मुकाबला कर सकता है। उन्होंने हरे डेटा केंद्रों की आवश्यकता पर जोर दिया।

Sutskever ने आगे कहा, "डेटा केंद्र ऊर्जा, बिजली के सबसे बड़े उपभोक्ता हैं।"

"यह विश्व स्तर पर 2 प्रतिशत है," मैंने पेश किया।

"क्या Bitcoin लगभग 1 प्रतिशत नहीं है?" ब्रॉकमैन ने कहा।

Sutskever बाद में कहेंगे, "मुझे लगता है कि यह काफी संभावना है कि पृथ्वी की पूरी सतह को डेटा केंद्रों और बिजली स्टेशनों से ढंकने में बहुत लंबा समय नहीं लगेगा।" "एक अभिकलन की सुनामी होगी . . . लगभग एक प्राकृतिक घटना की तरह।"

मैंने उन्हें चुनौती दी कि OpenAI जुआ खेल रहा है कि वह वैश्विक तापमान वृद्धि का मुकाबला करने के लिए लाभकारी AGI को सफलतापूर्वक प्राप्त करेगा, ऐसा करने से पहले यह इसे बढ़ा सकता है।

ब्रॉकमैन ने जल्दबाजी से कहा, "हम जिस तरह से इसके बारे में सोचते हैं वह इस प्रकार है: हम AI प्रगति के रास्ते पर हैं। यह OpenAI से बड़ा है, है ना? यह क्षेत्र है। और मुझे लगता है कि समाज को वास्तव में इससे लाभ हो रहा है।"

"जिस दिन हमने सौदे की घोषणा की," उन्होंने Microsoft के नए $1 बिलियन के निवेश का उल्लेख करते हुए कहा, "Microsoft का बाजार पूंजीकरण $10 बिलियन बढ़ गया। लोगों का मानना है कि सिर्फ अल्पकालिक प्रौद्योगिकी पर भी सकारात्मक ROI है।"

OpenAI की रणनीति इस प्रकार काफी सरल थी, उन्होंने समझाया: उस प्रगति के साथ बने रहना।

बाद में उस दिन, ब्रॉकमैन ने दोहराया कि किसी को वास्तव में नहीं पता था कि AGI कैसा दिखेगा, यह कहते हुए कि उनका काम आगे बढ़ना, तकनीक के आकार को कदम से कदम मिलाकर उजागर करना था।

पर्दे के पीछे: पारदर्शिता और नियंत्रण

शुरू में मेरे कर्मचारियों के साथ कैफेटेरिया में दोपहर का भोजन करने का कार्यक्रम था, लेकिन मुझे बताया गया कि मुझे कार्यालय के बाहर रहने की आवश्यकता है। ब्रॉकमैन मेरे अनुरक्षक होंगे।

यह पैटर्न मेरी यात्रा के दौरान दोहराया गया: कुछ क्षेत्रों तक प्रतिबंधित पहुंच, ऐसी बैठकें जिनमें मैं भाग नहीं ले सका, और शोधकर्ता संचार प्रमुख को यह सुनिश्चित करने के लिए देख रहे थे कि वे किसी भी प्रकटीकरण नीतियों का उल्लंघन नहीं कर रहे हैं। मेरी यात्रा के बाद, जैक क्लार्क ने कर्मचारियों को Slack पर एक कड़ी चेतावनी भेजी कि वे स्वीकृत बातचीत से परे मुझसे बात न करें। सुरक्षा गार्ड को भी मेरी तस्वीर मिली, ताकि वे मुझे देख सकें अगर मैं बिना मंजूरी के परिसर में दिखाई दूं। ये व्यवहार OpenAI की पारदर्शिता की प्रतिबद्धता के विपरीत थे, जिससे यह सवाल उठता है कि क्या छिपाया जा रहा है।

दोपहर के भोजन पर और उसके बाद के दिनों में, मैंने OpenAI की सह-स्थापना के लिए ब्रॉकमैन के इरादों के बारे में पूछताछ की। उन्होंने कहा कि वह एलन ट्यूरिंग के एक पेपर के बाद मानव बुद्धि को दोहराने के विचार से ग्रस्त हो गए थे। इसने उन्हें प्रेरित किया। उन्होंने एक ट्यूरिंग टेस्ट गेम को कोड किया और इसे ऑनलाइन डाल दिया, जिससे लगभग 1,500 हिट मिले। इससे उन्हें कमाल का महसूस हुआ। उन्होंने कहा, "मुझे बस एहसास हुआ कि यह वही चीज थी जिसे मैं आगे बढ़ाना चाहता था।"

वह 2015 में OpenAI में सह-संस्थापक के रूप में शामिल हुए, यह देखते हुए कि वह AGI को साकार करने के लिए कुछ भी करेंगे, भले ही इसका मतलब एक सफाईकर्मी बनना हो। जब उन्होंने चार साल बाद शादी की, तो उन्होंने प्रयोगशाला के हेक्सागोनल लोगो के आकार से सजी एक कस्टम फूलों की दीवार के सामने OpenAI के कार्यालय में एक नागरिक समारोह आयोजित किया। Sutskever ने officiating किया।

ब्रॉकमैन ने मुझसे कहा, "मूल रूप से, मैं अपने बाकी जीवन के लिए AGI पर काम करना चाहता हूं।"

मैंने पूछा कि उन्हें क्या प्रेरित करता है।

ब्रॉकमैन ने अपने जीवनकाल के दौरान एक परिवर्तनकारी तकनीक पर काम करने की संभावनाओं का उल्लेख किया। उनका मानना था कि वह उस परिवर्तन को लाने के लिए एक अनूठी स्थिति में हैं। उन्होंने कहा, “मैं वास्तव में उन समस्याओं की ओर आकर्षित हूं जो उसी तरह से नहीं खेलेंगी अगर मैं भाग नहीं लेता हूं।"

वह AGI का नेतृत्व करना चाहते थे और अपनी उपलब्धियों के लिए पहचान चाहते थे। 2022 में, वह OpenAI के अध्यक्ष बने।

लाभ, मिशन और प्रतियोगिता

हमारी बातचीत के दौरान, ब्रॉकमैन ने जोर देकर कहा कि OpenAI के संरचनात्मक परिवर्तनों ने इसके मूल मिशन को नहीं बदला। कैप्ड-प्रॉफिट संरचना और नए निवेशकों ने इसे बढ़ाया। उन्होंने कहा, "हमने इन मिशन-संरेखित निवेशकों को प्राप्त करने में कामयाबी हासिल की है जो रिटर्न पर मिशन को प्राथमिकता देने के लिए तैयार हैं। यह एक पागलपनपूर्ण बात है।"

OpenAI के पास अब अपने मॉडलों को स्केल करने और प्रतियोगिता से आगे रहने के लिए संसाधन थे। ऐसा करने में विफल रहने से इसका मिशन कमजोर हो सकता है। यह धारणा थी जिसने OpenAI की सभी कार्यों और उनके दूरगामी परिणामों को गति प्रदान की। इसने OpenAI की प्रत्येक शोध उन्नति पर एक टिक-टिक घड़ी लगाई, जो सावधानीपूर्वक विचार-विमर्श के समय-सीमा पर आधारित नहीं थी, बल्कि किसी और से पहले खत्म करने वाली रेखा को पार करने के लिए आवश्यक अथक गति पर आधारित थी। इसने OpenAI के संसाधनों की अथाह मात्रा की खपत को जायज ठहराया।

ब्रॉकमैन ने AGI के लाभों को पुनर्वितरित करने के महत्व पर जोर दिया।

मैंने जनता को सफलतापूर्वक लाभ वितरित करने वाली तकनीकों के ऐतिहासिक उदाहरणों के बारे में पूछा।

"ठीक है, मुझे वास्तव में लगता है कि - यहां तक कि इंटरनेट को एक उदाहरण के रूप में देखना वास्तव में दिलचस्प है," उन्होंने कहा। "समस्याएं भी हैं, है ना?" उन्होंने एक चेतावनी के रूप में कहा। "जब भी आपके पास कुछ सुपर ट्रांसफॉर्मेटिव होता है, तो यह पता लगाना आसान नहीं होने वाला है कि सकारात्मक को कैसे अधिकतम किया जाए, नकारात्मक को कम किया जाए।

"आग एक और उदाहरण है," उन्होंने कहा। "इसके कुछ वास्तविक नुकसान भी हैं। इसलिए हमें यह पता लगाना होगा कि इसे कैसे नियंत्रण में रखा जाए और साझा मानक हों।”

"कारें एक अच्छा उदाहरण हैं," उन्होंने पीछा किया। "बहुत से लोगों के पास कारें हैं, बहुत से लोगों को लाभ होता है। उनके कुछ नुकसान भी हैं। उनके कुछ बाहरी कारक हैं जो जरूरी नहीं कि दुनिया के लिए अच्छे हों," उन्होंने झिझकते हुए समाप्त किया।

“मुझे लगता है कि मैं - AGI के लिए जो हम चाहते हैं वह इंटरनेट के सकारात्मक पक्षों, कारों के सकारात्मक पक्षों, आग के सकारात्मक पक्षों से अलग नहीं है। कार्यान्वयन बहुत अलग है, हालांकि, क्योंकि यह एक बहुत अलग प्रकार की तकनीक है।"

नई बात से उनकी आंखें चमक उठीं। "बस उपयोगिताओं को देखें। बिजली कंपनियां, बिजली कंपनियां बहुत केंद्रीकृत संस्थाएं हैं जो कम लागत वाली, उच्च गुणवत्ता वाली चीजें प्रदान करती हैं जो लोगों के जीवन को सार्थक रूप से बेहतर बनाती हैं।"

ब्रॉकमैन एक बार फिर इस बारे में अस्पष्ट लग रहे थे कि OpenAI खुद को एक उपयोगिता में कैसे बदल देगा।

वह उस एकमात्र चीज पर लौट आए जिसे वह निश्चित रूप से जानते थे। OpenAI AGI के लाभों को पुनर्वितरित करने और सभी को आर्थिक स्वतंत्रता देने के लिए प्रतिबद्ध था। उन्होंने कहा, "हम वास्तव में ऐसा मतलब रखते हैं।"

उन्होंने कहा, "जिस तरह से हम इसके बारे में सोचते हैं, वह यह है: आज तक तकनीक कुछ ऐसी रही है जो सभी नौकाओं को ऊपर उठाती है, लेकिन इसका यह वास्तविक केंद्रित प्रभाव है।" "AGI अधिक चरम हो सकता है। क्या होगा अगर सभी मूल्य एक ही जगह पर लॉक हो जाएं? हम एक समाज के रूप में जिस प्रक्षेपवक्र पर हैं, वह यही है। और हमने इसका इतना चरम कभी नहीं देखा है। मुझे नहीं लगता कि यह एक अच्छी दुनिया है। वह दुनिया नहीं है जिसे मैं बनाने में मदद करना चाहता हूं।"

फॉलआउट और प्रतिक्रिया

फ़रवरी 2020 में, मैंने MIT टेक्नोलॉजी रिव्यू के लिए अपनी प्रोफ़ाइल प्रकाशित की, जिसमें OpenAI की सार्वजनिक छवि और इसके आंतरिक प्रथाओं के बीच एक मिसलिग्न्मेंट का खुलासा किया गया। मैंने कहा कि "समय के साथ, इसने पारदर्शिता, खुलेपन और सहयोग के अपने संस्थापक आदर्शों को खत्म करने के लिए एक भयंकर प्रतिस्पर्धा और कभी अधिक धन के लिए बढ़ते दबाव की अनुमति दी है।"

Elon Musk ने तीन ट्वीट के साथ जवाब दिया:

“OpenAI को IMO अधिक खुला होना चाहिए”

"मेरा कोई नियंत्रण नहीं है और OpenAI में बहुत सीमित अंतर्दृष्टि है। सुरक्षा के लिए Dario में आत्मविश्वास अधिक नहीं है," उन्होंने Dario Amodei का उल्लेख करते हुए कहा, जो अनुसंधान के निदेशक हैं।

"उन्नत AI विकसित करने वाले सभी orgs को विनियमित किया जाना चाहिए, जिसमें Tesla भी शामिल है"

Altman ने OpenAI के कर्मचारियों को एक ईमेल भेजा।

"निश्चित रूप से विनाशकारी नहीं होने पर, यह स्पष्ट रूप से बुरा था," उन्होंने MIT टेक्नोलॉजी रिव्यू लेख का उल्लेख किया।

उन्होंने लिखा कि यह "एक उचित आलोचना" थी, कि इस टुकड़े ने OpenAI की धारणा और इसकी वास्तविकता के बीच एक डिस्कनेक्ट की पहचान की थी। उन्होंने सुझाव दिया कि Amodei और Musk Musk की आलोचना को दूर करने के लिए मिलें। किसी भी संदेह से बचने के लिए, Amodei का काम और AI सुरक्षा मिशन के लिए महत्वपूर्ण थे, उन्होंने लिखा। "मुझे लगता है कि हमें भविष्य में किसी बिंदु पर अपनी टीम का सार्वजनिक रूप से बचाव करने का एक तरीका खोजना चाहिए (लेकिन प्रेस को वह सार्वजनिक लड़ाई नहीं देनी चाहिए जो वे अभी चाहते हैं)।"

लेख के बाद, OpenAI ने तीन साल तक मुझसे फिर कभी बात नहीं की।