एक साहित्यिक उत्सव, एक AI रहस्योद्घाटन
कुछ हफ़्ते पहले, भारत में जीवंत जयपुर लिटरेचर फेस्टिवल (JLF) कृत्रिम बुद्धिमत्ता (artificial intelligence) के भविष्य के बारे में एक महत्वपूर्ण चर्चा के लिए एक अप्रत्याशित मंच बन गया। साम्राज्य की विरासत पर केंद्रित एक पैनल के दौरान, बातचीत ने एक तीखा मोड़ लिया। पंकज मिश्रा की ‘From the Ruins of Empire: The Revolt Against the West and the Remaking of Asia’ से प्रभावित दर्शकों ने साहित्य के बारे में नहीं, बल्कि चीन के एक नए जेनरेटिव AI मॉडल, डीपसीक (DeepSeek) के बारे में तीखे सवालों की झड़ी लगा दी।
ये प्रश्न - हम यहां कैसे पहुंचे? AI के भविष्य के लिए हम सबसे अच्छा रास्ता कैसे बना सकते हैं? AI विकास में ओपन सोर्स क्यों महत्वपूर्ण है? - फेस्टिवल के मैदानों से कहीं आगे तक गूंजते रहे। उन्होंने एक गहरी ऐतिहासिक प्रतिद्वंद्विता, आत्मनिर्भरता की लालसा और AI विकास के लिए अधिक खुले और सहयोगी दृष्टिकोण की वकालत करने वाले एक बढ़ते वैश्विक आंदोलन को छुआ।
डीपसीक के स्वागत की ऐतिहासिक जड़ें
एक साहित्य उत्सव में डीपसीक का उभरना अजीब लग सकता है। हालाँकि, इसकी प्रमुखता ऐतिहासिक घटनाओं और एक लंबे समय से चली आ रही प्रतिद्वंद्विता, विशेष रूप से एशिया और पश्चिम के बीच, के साथ गहराई से जुड़ी हुई है। जबकि यूरोपीय AI प्रयोगशालाओं ने अपनी ओपन-सोर्स सफलताओं के लिए प्रशंसा प्राप्त की है, एशिया में डीपसीक का स्वागत कहीं अधिक गहरा ऐतिहासिक महत्व रखता है।
डीपसीक के लॉन्च को मीडिया कवरेज मिला। JLF में इसके स्वागत ने एक ऐसी भावना को प्रकट किया जो AI प्रदर्शन की मात्र चर्चाओं से परे थी। भारतीय लेखक और पत्रकार, जो अक्सर चीन के आलोचक होते हैं, खुद को अमेरिकी AI निगमों (AICs) के प्रभुत्व के खिलाफ एक साझा संघर्ष से एकजुट पाते हैं। पूरे एशिया में डीपसीक के लिए यह उत्साह औपनिवेशिक इतिहास में निहित है और हाल ही में, उत्तेजक कॉर्पोरेट घोषणाओं में।
AI: आत्मनिर्भरता के लिए एक आधुनिक संघर्ष
‘Imperial Twilight: The Opium War and The End of China’s Last Golden Age,’ के लेखक स्टीफन प्लैट के लिए, चीन की तकनीकी महत्वाकांक्षाएं उसके ऐतिहासिक घावों से अविभाज्य हैं। अफीम युद्ध (1839-1860) इस बात के एक शक्तिशाली प्रतीक के रूप में काम करते हैं कि कैसे ब्रिटेन की तकनीकी और सैन्य श्रेष्ठता ने चीन को अपमानित किया। यह “अपमान की सदी” चीन की आत्मनिर्भरता के लिए वर्तमान अभियान, AI, सेमीकंडक्टर्स और अन्य महत्वपूर्ण प्रौद्योगिकियों में इसके आक्रामक निवेश को बढ़ावा देती है। यह पश्चिमी तकनीक पर निर्भरता से बचने का दृढ़ संकल्प है, एक सबक जो राष्ट्रीय चेतना में अंकित है।
JLF में भारतीय पैनलिस्टों ने इस कथा में सामान्य आधार पाया। चीन की तरह, भारत भी ईस्ट इंडिया कंपनी के प्रभाव का काला निशान झेलता है। इसके अलावा, ब्रिटिश पत्रकार अनीता आनंद ने OpenAI के CEO सैम ऑल्टमैन के एक विवादास्पद वीडियो पर प्रकाश डाला, जिसमें भारत की फाउंडेशन मॉडल को प्रशिक्षित करने में AICs के साथ प्रतिस्पर्धा करने की क्षमता को खारिज करते हुए कहा गया था कि यह “पूरी तरह से निराशाजनक” था। इस तरह की टिप्पणियों ने इस क्षेत्र में आत्मनिर्भरता के संकल्प को और मजबूत किया है।
ओपन सोर्स AI: प्रतिरोध का प्रतीक
डीपसीक, और इससे पहले की यूरोपीय प्रयोगशालाओं ने, AI दौड़ में आशा की किरण पेश की है। ओपन सोर्स को अपनाने का उनका विकल्प मालिकाना AI मॉडल के प्रभुत्व के खिलाफ प्रतिरोध का एक शक्तिशाली प्रतीक बन गया है।
डीपसीक R1 की रिलीज़ को विशेष रूप से संयुक्त राज्य अमेरिका के साथ एक गहरी प्रतिद्वंद्विता के संदर्भ में समझा जाना चाहिए। यह प्रतिद्वंद्विता इतनी गहरी है कि अमेरिकी प्रौद्योगिकी के साथ प्रतिस्पर्धा की चर्चाओं में अक्सर यूरोप को नजरअंदाज कर दिया जाता है।
AICs के प्रभुत्व ने पश्चिम में उपनिवेशवाद से तुलना को भी जन्म दिया है। अगस्त 2024 में ‘The Rise of Techno-Colonialism,’ शीर्षक वाले एक ऑप-एड में, यूरोपीय इनोवेशन काउंसिल के सदस्य हरमन हॉसर और यूनिवर्सिटी कॉलेज लंदन (UCL) के एक वरिष्ठ शोधकर्ता हाज़ेम डैनी नकीब ने लिखा: ‘पुराने उपनिवेशवाद के विपरीत, तकनीकी-उपनिवेशवाद क्षेत्र पर कब्जा करने के बारे में नहीं है, बल्कि उन तकनीकों को नियंत्रित करने के बारे में है जो विश्व अर्थव्यवस्था और हमारे दैनिक जीवन को रेखांकित करती हैं। इसे प्राप्त करने के लिए, अमेरिका और चीन वैश्विक आपूर्ति श्रृंखलाओं के सबसे नवीन और जटिल खंडों को तेजी से ऑनशोरिंग कर रहे हैं, जिससे रणनीतिक चोकपॉइंट बन रहे हैं।’
मिस्ट्रल, क्युताई और मेटा की FAIR पेरिस टीम जैसी यूरोपीय AI प्रयोगशालाओं और अब डीपसीक के अग्रणी ओपन-सोर्स दृष्टिकोण ने AICs की मालिकाना AI मॉडल रणनीति का एक सम्मोहक विकल्प प्रस्तुत किया है। ये ओपन-सोर्स योगदान विश्व स्तर पर गूंज रहे हैं और अमेरिकी AI प्रभुत्व के खिलाफ प्रतिरोध के प्रतीक के रूप में ओपन-सोर्स AI को अपनाने को और मजबूत किया है।
ओपन सोर्स के लिए तर्क: इतिहास की पुनरावृत्ति
तकनीकी सहयोग ऊर्जा और गति पर पनपता है, जो सॉफ्टवेयर कोड के विकास में निहित है।
फ्रांसीसी नोबेल अर्थशास्त्र पुरस्कार विजेता जीन तिरोले, शुरू में ओपन सोर्स के उद्भव से हैरान थे, उन्होंने 2000 में जोश लर्नर के साथ अपने पेपर, ‘The Simple Economics of Open Source’ में सवाल उठाया: ‘हजारों शीर्ष पायदान के प्रोग्रामर एक सार्वजनिक वस्तु के प्रावधानों में स्वतंत्र रूप से योगदान क्यों करेंगे? परोपकारिता पर आधारित कोई भी स्पष्टीकरण केवल इतनी दूर तक जाता है।’
उस समय समझ में आने योग्य होते हुए भी, हाल के वर्षों में AI की प्रगति का अनुसरण करने वाले किसी भी व्यक्ति, विशेष रूप से डीपसीक R1 रिलीज के बाद, को इसका उत्तर स्वतः स्पष्ट लगेगा। FAIR पेरिस का मेटा के लामा (Llama) को ओपन-सोर्स करने का प्रभाव, मिस्ट्रल का उल्कापिंड उदय और 7B भाषा सीखने के मॉडल (LLM) को ओपन-सोर्स करने के माध्यम से इसके संस्थापकों का उदय, और डीपसीक R1 इन प्रोग्रामर और वैज्ञानिकों के ओपन सोर्स के प्रति समर्पण के पीछे के सम्मोहक कारणों को प्रदर्शित करते हैं।
यह भी स्पष्ट करता है कि सैम ऑल्टमैन और उनके सह-संस्थापकों ने प्रतिभा को आकर्षित करने के लिए “OpenAI” नाम क्यों चुना। क्या इनमें से कोई भी फ्रंटियर लैब इतनी शानदार प्रचार हासिल कर पाती और AI समुदाय के भीतर इतने मजबूत व्यक्तिगत ब्रांड बना पाती, अगर उन्होंने मालिकाना दृष्टिकोण चुना होता? इसका उत्तर एक जोरदार ना है।
1999 के दो शक्तिशाली उद्धरण, क्रमशः प्रोग्रामर रिचर्ड स्टॉलमैन और डेवलपर एरिक रेमंड द्वारा, पेपर की शुरुआत में शामिल किए गए, JLF में डीपसीक के स्वागत को उजागर करते हैं और खेल में गहरी वैचारिक ताकतों को रेखांकित करते हैं:
‘यह विचार कि मालिकाना सॉफ्टवेयर सामाजिक प्रणाली - वह प्रणाली जो कहती है कि आपको सॉफ्टवेयर साझा करने या बदलने की अनुमति नहीं है - असामाजिक है, कि यह अनैतिक है, कि यह बिल्कुल गलत है, कुछ लोगों के लिए आश्चर्य की बात हो सकती है। लेकिन जनता को विभाजित करने और उपयोगकर्ताओं को असहाय रखने पर आधारित एक प्रणाली के बारे में हम और क्या कह सकते हैं?’ - रिचर्ड स्टॉलमैन
‘लिनक्स हैकर्स जिस उपयोगिता फ़ंक्शन को अधिकतम कर रहे हैं, वह शास्त्रीय रूप से आर्थिक नहीं है, बल्कि अन्य हैकर्स के बीच उनके अपने अहंकार की संतुष्टि और प्रतिष्ठा का अमूर्त है। … स्वैच्छिक संस्कृतियाँ जो इस तरह से काम करती हैं, वास्तव में असामान्य नहीं हैं; एक और जिसमें मैंने लंबे समय तक भाग लिया है वह विज्ञान कथा प्रशंसक है, जो हैकरडोम के विपरीत स्पष्ट रूप से ईगोबू (अन्य प्रशंसकों के बीच किसी की प्रतिष्ठा में वृद्धि) को पहचानता है।’ - एरिक रेमंड
1970 और 1980 के दशक में यूनिक्स का प्रक्षेपवक्र AI की वर्तमान स्थिति के लिए एक सम्मोहक सादृश्य प्रदान करता है। AT&T के प्रारंभिक प्रचार और शिक्षा जगत में यूनिक्स के मुफ्त वितरण ने नवाचार और अपनाने को बढ़ावा दिया। हालाँकि, जब AT&T ने 1970 के दशक के अंत में एक मालिकाना लाइसेंस लगाया, तो इसने अनिवार्य रूप से बर्कले विश्वविद्यालय को BSD यूनिक्स, एक खुला विकल्प लॉन्च करने और अंततः लिनुस टोरवाल्ड्स को लिनक्स बनाने के लिए प्रेरित किया। यूरोप में टोरवाल्ड्स के लिनक्स के विकास ने ओपन-सोर्स सॉफ़्टवेयर के उपरिकेंद्र को अमेरिका से दूर स्थानांतरित कर दिया।
समानताएं, यहां तक कि भौगोलिक रूप से भी, AI के विकास के साथ, हड़ताली हैं। हालाँकि, इस बार, नए भूगोल उभरे हैं: अबू धाबी का TII अपने फाल्कन मॉडल के साथ, चीन का डीपसीक, अलीबाबा का Qwen, और हाल ही में, भारत की क्रुट्रिम AI लैब अपने इंडिक भाषाओं के लिए ओपन-सोर्स मॉडल के साथ।
मेटा FAIR पेरिस टीम, प्रमुख यूरोपीय AI प्रयोगशालाओं और नए फ्रंटियर लैब (डीपसीक, फाल्कन, Qwen, क्रुट्रिम) के साथ, AI नवाचार को काफी तेज कर दिया है। शोध पत्रों और कोड को खुले तौर पर साझा करके, उन्होंने:
- अत्याधुनिक AI तकनीकों में AI इंजीनियरों और शोधकर्ताओं की एक नई पीढ़ी को प्रशिक्षित किया है।
- खुले सहयोग का एक पारिस्थितिकी तंत्र बनाया है, जो मालिकाना AI प्रयोगशालाओं के बाहर तेजी से प्रगति को सक्षम बनाता है।
- वैकल्पिक AI मॉडल प्रदान किए हैं, यह सुनिश्चित करते हुए कि AI पर अमेरिकी AI निगमों का एकाधिकार नहीं है।
ये चार पारिस्थितिक तंत्र (यूरोप, भारत, अबू धाबी और चीन) अभी भी मालिकाना AI मानसिकता के तहत काम कर रहे प्रमुख AICs को चुनौती देने के लिए एक शक्तिशाली ओपन-सोर्स AI गठबंधन बना सकते हैं।
31 जनवरी, 2025 को डीपसीक R1 की रिलीज के बाद एक आस्क मी एनीथिंग (AMA) प्रश्नावली में, ऑल्टमैन ने स्वीकार किया कि मालिकाना AI मॉडल दृष्टिकोण इतिहास के गलत पक्ष पर था।
समय के साथ, दुनिया भर की AI प्रयोगशालाएं इस गठबंधन में शामिल होने का विकल्प चुन सकती हैं ताकि सामूहिक रूप से इस क्षेत्र को आगे बढ़ाया जा सके। यह पहली बार नहीं होगा जब कोई वैज्ञानिक क्षेत्र एक गैर-लाभकारी पहल के माध्यम से सीमाओं और राजनीतिक विचारधाराओं को पार कर जाएगा। यह प्रतिस्पर्धा का एक तरीका प्रदान करता है जो वैश्विक दक्षिण द्वारा अक्सर व्यक्त की जाने वाली औपनिवेशिक विरोधी शिकायतों को ट्रिगर करने से बचता है।
ऐतिहासिक मिसालें: AI के लिए एक मॉडल के रूप में मानव जीनोम परियोजना
एक जीवविज्ञानी के रूप में, मैं विशेष रूप से मानव जीनोम परियोजना (HGP) की उपलब्धियों और इसने अंततः सेलेरा जीनोमिक्स की लाभ-संचालित पहल को कैसे पीछे छोड़ दिया, इस क्षेत्र और समग्र रूप से मानवता को लाभान्वित किया, से अवगत हूं।
HGP एक अभूतपूर्व अंतर्राष्ट्रीय शोध पहल थी जिसने पूरे मानव जीनोम का मानचित्रण और अनुक्रमण किया। 2003 में 13 वर्षों के सहयोग के बाद पूरा हुआ, इसने 2011 की एक रिपोर्ट के अनुसार, $3 बिलियन के निवेश से लगभग $800 बिलियन का आर्थिक प्रभाव उत्पन्न किया है, जिसे 2013 में अपडेट किया गया था (अमेरिकी अर्थव्यवस्था में निवेश पर 141 से एक का रिटर्न - संघीय HGP निवेश के प्रत्येक $1 ने अर्थव्यवस्था में $141 की पीढ़ी में योगदान दिया है)। इसने व्यक्तिगत चिकित्सा, रोग की रोकथाम और जीनोमिक अनुसंधान में प्रगति को सक्षम करते हुए चिकित्सा, जैव प्रौद्योगिकी और आनुवंशिकी में क्रांति ला दी है। अनुक्रमण कार्य और अनुसंधान छह देशों: अमेरिका, ब्रिटेन, फ्रांस, जर्मनी, जापान और चीन में 20 प्रयोगशालाओं द्वारा आयोजित किया गया था।
जबकि सेलेरा जीनोमिक्स ने लाभ के लिए जीनोमिक अनुक्रमों को अनुक्रमित करने का प्रयास किया, HGP ने खुले डेटा साझाकरण को प्राथमिकता दी, जो इसके बरमूडा सिद्धांतों में निहित है। फरवरी 1996 में बरमूडा में मानव जीनोम अनुक्रमण पर अंतर्राष्ट्रीय रणनीति बैठक के दौरान स्थापित, ये सिद्धांत HGP के लिए डेटा-साझाकरण नीतियों को आकार देने में महत्वपूर्ण थे और वैश्विक स्तर पर जीनोमिक अनुसंधान प्रथाओं पर इनका स्थायी प्रभाव पड़ा है। इसके प्रमुख सिद्धांत थे:
- तत्काल डेटा रिलीज: HGP द्वारा उत्पन्न सभी मानव जीनोमिक अनुक्रम डेटा को सार्वजनिक डेटाबेस में जारी किया जाना था, अधिमानतः पीढ़ी के 24 घंटों के भीतर। इस तेजी से प्रसार का उद्देश्य वैज्ञानिक खोज में तेजी लाना और सामाजिक लाभों को अधिकतम करना था।
- मुफ्त और अप्रतिबंधित पहुंच: डेटा को वैश्विक वैज्ञानिक समुदाय और जनता के लिए स्वतंत्र रूप से उपलब्ध कराया जाना था, अनुसंधान या विकास उद्देश्यों के लिए उनके उपयोग पर कोई प्रतिबंध नहीं था।
- बौद्धिक संपदा दावों की रोकथाम: प्रतिभागियों ने सहमति व्यक्त की कि प्राथमिक जीनोमिक अनुक्रम डेटा पर कोई बौद्धिक संपदा अधिकार का दावा नहीं किया जाएगा, एक खुले-विज्ञान लोकाचार को बढ़ावा देना और पेटेंट के कारण अनुसंधान में संभावित बाधाओं को रोकना।
शासन के संदर्भ में, HGP एक सहयोगी और समन्वित वैज्ञानिक पहल थी, न कि एक स्टैंडअलोन संगठन या निगम। यह विभिन्न अनुसंधान संस्थानों को सरकारी अनुदान और अनुबंधों के माध्यम से वित्त पोषित एक विकेन्द्रीकृत प्रयास था। इसके बजट का एक हिस्सा (3-5%) मानव जीनोम अनुक्रमण से संबंधित नैतिक, कानूनी और सामाजिक चिंताओं के अध्ययन और समाधान के लिए समर्पित था।
AI सुरक्षा और ओपन सोर्स AI को जोड़ना
ओपन-सोर्स AI का एक और महत्वपूर्ण लाभ AI सुरक्षा अनुसंधान में इसकी भूमिका है।
2024 में AI सियोल शिखर सम्मेलन ने विशेष रूप से अस्तित्वगत जोखिमों पर ध्यान केंद्रित किया, ऐसे समय में जब AICs के पास दुनिया के बाकी हिस्सों पर एक महत्वपूर्ण बढ़त थी। मई 2024 तक, Google के पूर्व CEO एरिक श्मिट ने दावा किया था कि अमेरिका AI में चीन से 2-3 साल आगे था, जबकि यूरोप विनियमन से इतना व्यस्त था कि वह प्रासंगिक नहीं था। अगर शिखर सम्मेलन सफल हो जाता, तो इसने प्रभावी रूप से इन निगमों को AI सुरक्षा निर्णयों का नियंत्रण सौंप दिया होता। सौभाग्य से, ऐसा नहीं हुआ।
अब जब ओपन-सोर्स AI तकनीकी अंतर को पाट रहा है, तो सुरक्षा चर्चाओं को अब केवल कुछ प्रमुख खिलाड़ियों द्वारा निर्देशित नहीं किया जाएगा। इसके बजाय, हितधारकों का एक व्यापक और अधिक विविध समूह - जिसमें यूरोप, भारत, चीन और अबू धाबी के शोधकर्ता, नीति निर्माता और AI प्रयोगशालाएं शामिल हैं - के पास AICs के साथ चर्चा को आकार देने का अवसर है।
इसके अलावा, ओपन-सोर्स AI वैश्विक निरोध क्षमताओं को बढ़ाता है, यह सुनिश्चित करता है कि कोई भी एकल अभिनेता जवाबदेही के बिना उन्नत AI प्रणालियों का एकाधिकार या दुरुपयोग नहीं कर सकता है। AI सुरक्षा के लिए यह विकेन्द्रीकृत दृष्टिकोण वैश्विक AI पारिस्थितिकी तंत्र में क्षमताओं और निरीक्षण दोनों को अधिक समान रूप से वितरित करके संभावित अस्तित्वगत खतरों को कम करने में मदद करेगा।
पेरिस सिद्धांतों के साथ एक मानव AI परियोजना
अगले सप्ताह पेरिस में AI एक्शन समिट AI के भविष्य को आकार देने में क्या भूमिका निभा सकता है?
यह मानव जीनोम परियोजना के बाद तैयार की गई एक मानव AI परियोजना स्थापित करने का एक महत्वपूर्ण अवसर प्रस्तुत करता है, ताकि वैश्विक स्तर पर ओपन-सोर्स AI विकास को आगे बढ़ाया जा सके और समर्थन किया जा सके। अग्रणी यूरोपीय AI प्रयोगशालाओं से लेकर डीपसीक तक के वर्तमान ओपन-सोर्स योगदान पहले से ही इस क्षेत्र को तेज कर रहे हैं और AICs के साथ अंतर को कम करने में मदद कर रहे हैं।
AI की क्षमताएं सामान्य ओपन-सोर्स पारिस्थितिकी तंत्र की परिपक्वता से काफी बढ़ जाती हैं, जिसमें हजारों परिपक्व परियोजनाएं, समर्पित शासन मॉडल और उद्यम, शिक्षा और सरकार में गहरा एकीकरण होता है।
AI ओपन-सोर्स इकोसिस्टम को Github और Gitlab जैसे प्लेटफॉर्म से भी फायदा होता है। हाल ही में, ओपन-सोर्स AI के लिए समर्पित प्लेटफॉर्म, जैसे कि हगिंग फेस - तीन फ्रांसीसी उद्यमियों द्वारा सह-स्थापित एक अमेरिकी निगम - ने समुदाय के लिए वितरण प्लेटफॉर्म के रूप में एक महत्वपूर्ण भूमिका निभानी शुरू कर दी है।
1990 के दशक की शुरुआत में मानव जीनोम अनुक्रमण की तुलना में ओपन-सोर्स AI पारिस्थितिकी तंत्र की सापेक्ष परिपक्वता को देखते हुए, ओपन-सोर्स AI एक मानव AI परियोजना से कैसे लाभान्वित हो सकता है?
एक के लिए, यूरोपीय संघ की अक्सर AICs और अपनी स्वयं की फ्रंटियर AI प्रयोगशालाओं द्वारा ओपन सोर्स के अपने विनियमन के लिए आलोचना की जाती है। एक मानव AI परियोजना भाग लेने वाले देशों और क्षेत्रों में नियामक संरेखण और मानकों को विकसित करने के लिए एक संयुक्त प्रयास समर्पित कर सकती है। यूरोप, भारत, अबू धाबी और चीन के प्रारंभिक योगदान के साथ एक समन्वित दृष्टिकोण, इस साझा नियामक क्षेत्र (ओपन सोर्स के लिए एक प्रकार का मुक्त व्यापार क्षेत्र) में ओपन-सोर्स मॉडल के प्रसार की सुविधा प्रदान कर सकता है।
हालांकि निश्चित रूप से साबित नहीं हुआ है, प्रतिद्वंद्विता-संचालित गतिशीलता के समानांतर हैं जिन्होंने JLF में डीपसीक की प्रतिक्रिया को आकार दिया। इसी तरह, AI विनियमन को नवाचार को बढ़ावा देने और सार्वजनिक लाभ को अधिकतम करने पर ध्यान देने के साथ तैयार किया जा सकता है - उद्यमों और उपभोक्ताओं दोनों के लिए - बजाय इसके कि AICs की प्रगति को बाधित करने या अंतर को कम करने के लिए प्रयास कर रहे घरेलू AI चैंपियनों को बाधित करने के लिए एक संभावित तंत्र के रूप में काम किया जाए।
परियोजना प्रतिभा विनिमय की सुविधा भी प्रदान कर सकती है और ओपन-सोर्स AI के लिए एक साझा कंप्यूट इंफ्रास्ट्रक्चर (ऊर्जा बुनियादी ढांचे से जुड़ा) को निधि दे सकती है। नीचे दिए गए चार्ट से यह स्पष्ट है कि दुनिया के कुछ हिस्सों में प्रतिभाशाली STEM स्नातक वर्तमान में उस विश्व स्तरीय AI बुनियादी ढांचे तक पहुंचने के लिए संघर्ष कर सकते हैं जिसकी उनके देश में कमी है।
सहयोग का एक अन्य क्षेत्र मॉडल और डेटा सेट के लिए खुले पहुंच मानकों पर सर्वोत्तम प्रथाओं को स्थापित करना होगा, जिसमें वजन, कोड और प्रलेखन शामिल हैं।
परियोजना AI सुरक्षा अनुसंधान पर वैश्विक सहयोग को भी बढ़ावा दे सकती है। संरेखण मुद्दों को ठीक करने के लिए गुप्त रूप से दौड़ने के बजाय, पेरिस से बीजिंग से बैंगलोर तक के शोधकर्ता मॉडल का मूल्यांकन करने और जोखिमों को कम करने के लिए मिलकर काम कर सकते हैं। सभी सुरक्षा निष्कर्ष (जैसे, हानिकारक आउटपुट को कम करने के तरीके या व्याख्यात्मकता के लिए उपकरण) को तुरंत खुले डोमेन में साझा किया जा सकता है।
यह सिद्धांत यह स्वीकार करेगा कि AI सुरक्षा एक वैश्विक सार्वजनिक भलाई है - एक प्रयोगशाला में एक सफलता (कहते हैं, AI तर्क को पारदर्शी बनाने के लिए एक नया एल्गोरिथ्म) सभी को लाभान्वित करना चाहिए, मालिकाना नहीं रखा जाना चाहिए। संयुक्त सुरक्षा बेंचमार्क और चुनौती घटनाओं को सामूहिक जिम्मेदारी की संस्कृति को प्रोत्साहित करने के लिए आयोजित किया जा सकता है। सुरक्षा अनुसंधान को पूल करके, परियोजना का उद्देश्य संभावित AI दुरुपयोग या दुर्घटनाओं से आगे रहना होगा, जनता को आश्वस्त करना होगा कि शक्तिशाली AI प्रणालियों को देखभाल के साथ प्रबंधित किया जा रहा है।
2023 में ब्लेचले पार्क में यूके AI सुरक्षा शिखर सम्मेलन में अस्तित्वगत जोखिम पर ध्यान केंद्रित करने से, परमाणु प्रसार सादृश्य पर अधिक जोर देकर, सुरक्षा को एक सार्वजनिक भलाई माना जाता है, जहां अन्य क्षेत्रों की जांच करने का अवसर चूक गया: साइबर सुरक्षा, एंटीबायोटिक्स और इम्यूनोलॉजी (कोविड -19 के बाद कई दिलचस्प पहलों के साथ), और विमानन सुरक्षा।
परियोजना सुरक्षित और उन्नत AI प्रणालियों के विकास को बढ़ावा देने के लिए निजी ARC पुरस्कार फाउंडेशन द्वारा वर्तमान में किए जा रहे कार्यों के साथ साझेदारी और आगे बढ़ सकती है। ARC पुरस्कार, केरस ओपन-सोर्स लाइब्रेरी के निर्माता फ्रांकोइस चॉलेट और जैपियर सॉफ्टवेयर कंपनी के सह-संस्थापक माइक नूप द्वारा सह-स्थापित, एक गैर-लाभकारी संगठन है जो कृत्रिम सामान्य बुद्धि (AGI) अनुसंधान को आगे बढ़ाने के लिए सार्वजनिक प्रतियोगिताओं की मेजबानी करता है। उनका प्रमुख कार्यक्रम, ARC पुरस्कार प्रतियोगिता, उन प्रतिभागियों को $1 मिलियन से अधिक की पेशकश करता है जो ARC-AGI बेंचमार्क के लिए विकास और ओपन-सोर्स समाधान कर सकते हैं - एक परीक्षण जो एक AI प्रणाली की सामान्यीकरण करने और कुशलता से नए कौशल हासिल करने की क्षमता का मूल्यांकन करने के लिए डिज़ाइन किया गया है।
ARC पुरस्कार फाउंडेशन का ओपन-सोर्स समाधानों और सार्वजनिक प्रतियोगिताओं पर जोर, AI विकास में अंतर्राष्ट्रीय सहयोग और पारदर्शिता को बढ़ावा देने के मानव AI परियोजना के लक्ष्यों के साथ सहज रूप से संरेखित होता है, जैसा कि ARC पुरस्कार फाउंडेशन की वेबसाइट पर “AGI” के तहत कहा गया है:
‘LLMs को अकल्पनीय रूप से बड़ी मात्रा में डेटा पर प्रशिक्षित किया जाता है, फिर भी वे उन सरल समस्याओं के अनुकूल होने में असमर्थ रहते हैं जिन पर उन्हें प्रशिक्षित नहीं किया गया है, या उपन्यास आविष्कार करते हैं, चाहे वे कितने भी बुनियादी क्यों न हों। मजबूत बाजार प्रोत्साहनों ने फ्रंटियर AI अनुसंधान को बंद स्रोत में जाने के लिए प्रेरित किया है। अनुसंधान ध्यान और संसाधनों को एक मृत अंत की ओर खींचा जा रहा है। ARC पुरस्कार शोधकर्ताओं को नए तकनीकी दृष्टिकोणों की खोज करने के लिए प्रेरित करने के लिए डिज़ाइन किया गया है जो खुले AGI प्रगति को आगे बढ़ाते हैं।’
HGP की तरह, मानव AI परियोजना अपने वित्त पोषण का एक हिस्सा नैतिक शासन और निरीक्षण के लिए समर्पित करेगी। इसमें कॉपीराइट के बारे में चर्चा शामिल होगी। परियोजना समाज को मुफ्त में प्रशिक्षण के लिए जानकारी के सर्वोत्तम स्रोत तक पहुंचने की नैतिकता पर विचार करने में मदद कर सकती है, जबकि इसके ऊपर मालिकाना मॉडल विकसित कर सकती है। जीव विज्ञान के क्षेत्र में, यह सर्वविदित है कि प्रोटीन डेटा बैंक, जो Google डीपमाइंड के अल्फाफोल्ड मॉडल के लिए प्रोटीन संरचना की भविष्यवाणी करने के लिए महत्वपूर्ण था, को 50 वर्षों की अवधि में $10 बिलियन के बराबर धन की आवश्यकता थी। परियोजना यह सोचने में मदद कर सकती है कि हम AI विकास को कैसे निधि देना जारी रखते हैं या मालिकाना AICs को मूल कार्य रचनाकारों के साथ राजस्व कैसे साझा करना चाहिए।
साथ में, ये पेरिस सिद्धांत और मानव AI परियोजना AI को वैश्विक स्तर पर अधिक खुले, सहयोगी और नैतिक तरीके से आगे बढ़ाने में मदद करेंगे। वे मौजूदा ओपन-सोर्स सॉफ़्टवेयर और AI-विशिष्ट फ़्रेमवर्क और प्लेटफ़ॉर्म के भीतर, यूरोप से मध्य पूर्व, भारत और अब चीन तक के प्रमुख ओपन-सोर्स योगदानकर्ताओं की उपलब्धियों पर निर्माण करेंगे।
AI के साथ इतिहास की पुनरावृत्ति
हमारे सामने अवसर बहुत बड़ा है। मिस्ट्रल AI, क्युताई, BFL, स्टेबिलिटी और हाल ही में डीपसीक ने जनता को उम्मीद दी है कि एक ऐसा भविष्य जहां सहयोग प्रतिद्वंद्वियों या यहां तक कि मालिकाना AICs को पार कर जाए, संभव है।
हम अभी भी इस तकनीकी सफलता के शुरुआती चरण में हैं। हमें इस क्षेत्र में AICs के योगदान के लिए आभारी होना चाहिए। AI एक्शन समिट को अभूतपूर्व पैमाने पर सहकारी नवाचार को बढ़ावा देने और अधिक से अधिक खिलाड़ियों को इतिहास के सही पक्ष में लाने का अवसर होना चाहिए।
यह फिर से 1789 है। हम तकनीकी संप्रभुता के लिए एक लड़ाई, शक्ति का विकेंद्रीकरण और AI को एक सार्वजनिक भलाई के रूप में देख रहे हैं। और 1789 की तरह, इस क्रांति को रोका नहीं जा सकेगा।