एक साहित्यिक महोत्सव, एक AI साक्षात्कार
काही आठवड्यांपूर्वी, भारतातील जयपूर लिटरेचर फेस्टिव्हल (JLF) कृत्रिम बुद्धिमत्तेच्या (artificial intelligence) भविष्याबद्दलच्या महत्त्वपूर्ण चर्चेसाठी एक अनपेक्षित व्यासपीठ बनले. साम्राज्याच्या वारशावर लक्ष केंद्रित करणाऱ्या एका पॅनेल चर्चेदरम्यान, संभाषणाने एक अनपेक्षित वळण घेतले. पंकज मिश्रा यांच्या ‘फ्रॉम द रुइन्स ऑफ एम्पायर: द रिव्होल्ट अगेन्स्ट द वेस्ट अँड द रिमेकिंग ऑफ एशिया’ या पुस्तकाने भारावलेल्या प्रेक्षकांनी, साहित्याबद्दल नव्हे, तर चीनमधील नवीन जनरेटिव्ह AI मॉडेल, डीपसीकबद्दल (DeepSeek) प्रश्नांची सरबत्ती केली.
हे प्रश्न - आपण इथे कसे पोहोचलो? AI च्या भविष्यासाठी सर्वोत्तम मार्ग कसा तयार करायचा? AI विकासामध्ये मुक्त स्रोत (open source) का महत्त्वाचे आहे? - फेस्टिव्हलच्या परिसराच्या पलीकडेही खूप दूरपर्यंत पोहोचले. त्यांनी एका खोलवर रुजलेल्या ऐतिहासिक स्पर्धेला, स्वावलंबनाच्या इच्छेला आणि AI विकासासाठी अधिक खुल्या आणि सहयोगी दृष्टिकोनाचा पुरस्कार करणाऱ्या वाढत्या जागतिक चळवळीला स्पर्श केला.
डीपसीकच्या प्रतिसादाची ऐतिहासिक मुळे
डीपसीकचे (DeepSeek) एका साहित्य महोत्सवात आगमन विचित्र वाटू शकते. तथापि, त्याचे महत्त्व ऐतिहासिक घटना आणि दीर्घकाळ चाललेल्या स्पर्धेशी, विशेषतः आशिया आणि पश्चिम यांच्यातील स्पर्धेशी গভীরভাবে जोडलेले आहे. युरोपियन AI लॅबने त्यांच्या मुक्त-स्रोत (open-source) यशामुळे प्रशंसा मिळवली असली, तरी आशियामध्ये डीपसीकला मिळालेल्या प्रतिसादात अधिक गहन ऐतिहासिक अनुनाद आहे.
डीपसीकच्या (DeepSeek) लाँचला माध्यमांनी मोठ्या प्रमाणावर प्रसिद्धी दिली. JLF मध्ये मिळालेल्या प्रतिसादाने AI च्या कार्यक्षमतेच्या चर्चेपलीकडे जाणारी भावना प्रकट केली. भारतीय लेखक आणि पत्रकार, जे अनेकदा चीनवर टीका करतात, ते अमेरिकन AI कॉर्पोरेशन्सच्या (AICs) वर्चस्वाविरुद्धच्या समान लढ्याने एकत्र आले. डीपसीकबद्दलचा (DeepSeek) हा उत्साह संपूर्ण आशियामध्ये वसाहतवादी इतिहास आणि अलीकडील, प्रक्षोभक कॉर्पोरेट घोषणांमध्ये रुजलेला आहे.
AI: स्वावलंबनासाठी एक आधुनिक संघर्ष
‘इम्पिरियल ट्वायलाइट: द ओपियम वॉर अँड द एंड ऑफ चायनाज लास्ट गोल्डन एज’ चे लेखक स्टीफन प्लॅट यांच्यासाठी, चीनच्या तांत्रिक महत्त्वाकांक्षा त्याच्या ऐतिहासिक जखमांपासून अविभाज्य आहेत. ओपियम युद्धे (1839-1860) हे ब्रिटनच्या तांत्रिक आणि लष्करी श्रेष्ठत्वाने चीनला कसे अपमानित केले याचे एक शक्तिशाली प्रतीक म्हणून काम करतात. हा ‘अपमानाचा शतकाचा’ काळ चीनच्या स्वावलंबनाच्या सध्याच्या मोहिमेला, AI, सेमीकंडक्टर आणि इतर महत्त्वपूर्ण तंत्रज्ञानांमधील आक्रमक गुंतवणुकीला चालना देतो. पाश्चात्त्य तंत्रज्ञानावरील अवलंबित्व टाळण्याचा हा दृढनिश्चय आहे, हा धडा राष्ट्रीय चेतनेत कोरला गेला आहे.
JLF मधील भारतीय पॅनेलिस्टना या कथनात समान आधार सापडला. चीनप्रमाणेच, भारतावरही ईस्ट इंडिया कंपनीच्या प्रभावाचा गडद ठसा आहे. शिवाय, ब्रिटिश पत्रकार अनिता आनंद यांनी OpenAI चे CEO सॅम ऑल्टमन यांच्या एका वादग्रस्त व्हिडिओवर प्रकाश टाकला, ज्यात त्यांनी फाउंडेशन मॉडेल तयार करण्यासाठी AICs शी स्पर्धा करण्याची भारताची क्षमता नाकारली आणि ते ‘पूर्णपणे निराशाजनक’ असल्याचे सांगितले. अशा वक्तव्यांमुळे या प्रदेशात स्वावलंबनाचा निर्धार अधिक दृढ झाला आहे.
मुक्त स्रोत AI: प्रतिकाराचे प्रतीक
डीपसीक (DeepSeek) आणि त्याच्या आधीच्या युरोपियन लॅबने AI शर्यतीत आशेचा किरण दाखवला आहे. मुक्त स्रोत (open source) स्वीकारण्याच्या त्यांच्या निर्णयामुळे मालकीच्या AI मॉडेल्सच्या वर्चस्वाविरुद्ध प्रतिकाराचे एक शक्तिशाली प्रतीक बनले आहे.
डीपसीक R1 (DeepSeek R1) ची रिलीझ विशेषतः अमेरिकेसोबतच्या खोलवर रुजलेल्या स्पर्धेच्या संदर्भात समजून घेणे आवश्यक आहे. ही स्पर्धा इतकी गहन आहे की अमेरिकन तंत्रज्ञानाशी स्पर्धेच्या चर्चेत युरोपकडे अनेकदा दुर्लक्ष केले जाते.
AICs च्या वर्चस्वामुळे पश्चिमेकडील वसाहतवादाशी तुलना केली जात आहे. ऑगस्ट 2024 मध्ये ‘द राइज ऑफ टेक्नो-कॉलोनियलिझम’ नावाच्या एका लेखात, युरोपियन इनोव्हेशन कौन्सिलचे सदस्य हर्मन हॉसर आणि युनिव्हर्सिटी कॉलेज लंडन (UCL) मधील वरिष्ठ संशोधक हाझेम डॅनी नकिब यांनी लिहिले: “जुन्या वसाहतवादाच्या विपरीत, टेक्नो-वसाहतवाद हा प्रदेश ताब्यात घेण्याबद्दल नाही, तर जागतिक अर्थव्यवस्था आणि आपल्या दैनंदिन जीवनाचा आधार असलेल्या तंत्रज्ञानावर नियंत्रण ठेवण्याबद्दल आहे. हे साध्य करण्यासाठी, अमेरिका आणि चीन जागतिक पुरवठा साखळ्यांमधील सर्वात नाविन्यपूर्ण आणि जटिल विभाग अधिकाधिक प्रमाणात आपल्या देशात आणत आहेत, ज्यामुळे धोरणात्मक अडथळे निर्माण होत आहेत.”
Mistral, kyutai, आणि Meta च्या FAIR पॅरिस टीमसारख्या युरोपियन AI लॅबचा आणि आता डीपसीकचा (DeepSeek) पायनियरिंग ओपन-सोर्स दृष्टिकोन AICs च्या प्रोप्रायटरी AI मॉडेल स्ट्रॅटेजीला एक आकर्षक पर्याय सादर करतो. हे ओपन-सोर्स योगदान जागतिक स्तरावर गुंजत आहेत आणि अमेरिकन AI वर्चस्वाविरुद्ध प्रतिकाराचे प्रतीक म्हणून ओपन-सोर्स AI चा स्वीकार अधिक दृढ केला आहे.
मुक्त स्रोतासाठी युक्तिवाद: इतिहासाची पुनरावृत्ती
तांत्रिक सहयोग ऊर्जा आणि गतीवर अवलंबून असतो, जे सॉफ्टवेअर कोडच्या उत्क्रांतीमध्ये मूळतः असते.
फ्रेंच नोबेल अर्थशास्त्र पारितोषिक विजेते जीन टिरोल, जे सुरुवातीला मुक्त स्रोताच्या (open source) उदयामुळे गोंधळले होते, त्यांनी 2000 मध्ये जोश लर्नर यांच्यासोबत ‘द सिंपल इकॉनॉमिक्स ऑफ ओपन सोर्स’ या पेपरमध्ये प्रश्न विचारला: “हजारो उच्च-दर्जाचे प्रोग्रामर सार्वजनिक हितासाठी विनामूल्य योगदान का देतात? परोपकारावर आधारित कोणतेही स्पष्टीकरण केवळ मर्यादित प्रमाणातच पुढे जाते.”
त्या वेळी हे समजण्यासारखे असले तरी, AI च्या अलीकडील वर्षांतील प्रगतीचे, विशेषत: डीपसीक R1 (DeepSeek R1) रिलीझनंतर, अनुसरण करणाऱ्या कोणालाही याचे उत्तर স্বতঃसिद्ध वाटेल. FAIR पॅरिसने मेटाचे लामा (Llama) ओपन-सोर्स केल्याचा परिणाम, मिस्ट्रलचा (Mistral) वेगवान उदय आणि 7B लँग्वेज लर्निंग मॉडेल (LLM) ओपन-सोर्सिंगद्वारे त्याच्या संस्थापकांची वाढ आणि डीपसीक R1 (DeepSeek R1) हे या प्रोग्रामर आणि शास्त्रज्ञांच्या ओपन सोर्ससाठी असलेल्या समर्पणामागील आकर्षक कारणे दर्शवतात.
हे देखील स्पष्ट करते की सॅम ऑल्टमन आणि त्यांच्या सह-संस्थापकांनी प्रतिभावान लोकांना आकर्षित करण्यासाठी ‘OpenAI’ हे नाव का निवडले. यापैकी कोणत्याही फ्रंटियर लॅबने प्रोप्रायटरी दृष्टिकोन निवडला असता तर त्यांना इतकी प्रचंड प्रसिद्धी मिळाली असती आणि AI समुदायामध्ये इतके मजबूत वैयक्तिक ब्रँड तयार करता आले असते का? याचे उत्तर निश्चितपणे नाही असे आहे.
1999 मधील प्रोग्रामर रिचर्ड स्टॉलमन आणि डेव्हलपर एरिक रेमंड यांच्या दोन शक्तिशाली वाक्यांशांनी, जे पेपरच्या सुरुवातीला समाविष्ट केले आहेत, JLF मध्ये डीपसीकला (DeepSeek) मिळालेला प्रतिसाद आणि त्यामागील खोल वैचारिक शक्ती अधोरेखित केल्या आहेत:
“प्रोप्रायटरी सॉफ्टवेअर सोशल सिस्टीम - जी प्रणाली तुम्हाला सॉफ्टवेअर शेअर करण्याची किंवा बदलण्याची परवानगी देत नाही - असामाजिक आहे, अनैतिक आहे, ती पूर्णपणे चुकीची आहे, ही कल्पना काही लोकांना आश्चर्यकारक वाटू शकते. परंतु जनतेमध्ये फूट पाडणाऱ्या आणि वापरकर्त्यांना असहाय्य ठेवणाऱ्या प्रणालीबद्दल आपण आणखी काय म्हणू शकतो?” - रिचर्ड स्टॉलमन
“लिनक्स हॅकर्स (Linux hackers) ज्या युटिलिटी फंक्शनला महत्त्व देत आहेत ते शास्त्रीयदृष्ट्या आर्थिक नाही, तर त्यांच्या स्वतःच्या अहंकाराचे समाधान आणि इतर हॅकर्समधील प्रतिष्ठा आहे. … अशा प्रकारे कार्य करणाऱ्या ऐच्छिक संस्कृती प्रत्यक्षात असामान्य नाहीत; मी ज्यामध्ये दीर्घकाळ भाग घेतला आहे ती दुसरी म्हणजे सायन्स फिक्शन फॅन्डम (science fiction fandom), जी हॅकरडमच्या (hackerdom) विपरीत, इगोबू (egoboo) (इतर चाहत्यांमध्ये एखाद्याची प्रतिष्ठा वाढवणे) स्पष्टपणे ओळखते.” - एरिक रेमंड
1970 आणि 1980 च्या दशकातील युनिक्सचा (Unix) मार्ग AI च्या सध्याच्या स्थितीसाठी एक आकर्षक समानता प्रदान करतो. AT&T ने सुरुवातीला युनिक्सचा (Unix) प्रचार आणि शैक्षणिक क्षेत्रात विनामूल्य वितरण केल्यामुळे नावीन्यपूर्णतेला आणि स्वीकृतीला चालना मिळाली. तथापि, जेव्हा AT&T ने 1970 च्या दशकाच्या उत्तरार्धात प्रोप्रायटरी लायसन्स लादले, तेव्हा बर्कले विद्यापीठाने BSD युनिक्स (Unix), एक खुला पर्याय आणि शेवटी लिनस टोरवाल्ड्सने (Linus Torvalds) लिनक्स (Linux) तयार केले. टोरवाल्ड्सने (Torvalds) युरोपमध्ये लिनक्सच्या (Linux) विकासामुळे ओपन-सोर्स सॉफ्टवेअरचे केंद्र अमेरिकेपासून दूर गेले.
AI च्या उत्क्रांतीसह, भौगोलिकदृष्ट्या देखील, समानता आश्चर्यकारक आहेत. तथापि, यावेळी, नवीन भौगोलिक क्षेत्रे उदयास आली आहेत: अबु धाबीचे TII त्याचे फाल्कन मॉडेल (Falcon Models), चीनचे डीपसीक (DeepSeek), अलिबाबाचे क्वेन (Qwen) आणि अलीकडेच, भारताची कृत्रिम AI लॅब (Krutrim AI Lab) इंडिक भाषांसाठी (Indic languages) त्याच्या ओपन-सोर्स मॉडेल्ससह.
मेटा FAIR पॅरिस टीम (Meta FAIR Paris team), आघाडीच्या युरोपियन AI लॅब आणि नवीन फ्रंटियर लॅब (डीपसीक, फाल्कन, क्वेन, कृत्रिम) यांनी AI च्या नावीन्यपूर्णतेला लक्षणीय गती दिली आहे. संशोधन पेपर आणि कोड उघडपणे शेअर करून, त्यांनी:
- AI अभियंते आणि संशोधकांची एक नवीन पिढी अत्याधुनिक AI तंत्रज्ञानामध्ये प्रशिक्षित केली आहे.
- खुल्या सहकार्याची एक परिसंस्था तयार केली आहे, ज्यामुळे प्रोप्रायटरी AI लॅबच्या बाहेर वेगाने प्रगती करणे शक्य झाले आहे.
- वैकल्पिक AI मॉडेल्स प्रदान केले आहेत, ज्यामुळे AI ची मक्तेदारी अमेरिकन AI कॉर्पोरेशन्सकडे (American AI Corporations) राहणार नाही याची खात्री केली आहे.
हे चार इकोसिस्टम (युरोप, भारत, अबु धाबी आणि चीन) प्रोप्रायटरी AI मानसिकतेखाली कार्यरत असलेल्या প্রভাবশালী AICs ला आव्हान देण्यासाठी एक शक्तिशाली ओपन-सोर्स AI युती तयार करू शकतात.
31 जानेवारी, 2025 रोजी डीपसीक R1 (DeepSeek R1) च्या रिलीझनंतर, आस्क मी एनीथिंग (AMA) प्रश्नावलीमध्ये, ऑल्टमनने कबूल केले की प्रोप्रायटरी AI मॉडेलचा दृष्टिकोन इतिहासाच्या चुकीच्या बाजूला होता.
कालांतराने, जगभरातील AI लॅब या क्षेत्रात एकत्रितपणे प्रगती करण्यासाठी या युतीमध्ये सामील होण्याचा पर्याय निवडू शकतात. विना-नफा उपक्रमाद्वारे वैज्ञानिक क्षेत्र सीमा आणि राजकीय विचारधारांच्या पलीकडे जाण्याची ही पहिलीच वेळ नाही. हे स्पर्धेचा एक मार्ग प्रदान करते, ज्यामुळे ग्लोबल साउथ (Global South) द्वारे अनेकदा व्यक्त केल्या जाणाऱ्या वसाहतविरोधी तक्रारींना चालना मिळत नाही.
ऐतिहासिक उदाहरणे: AI साठी मॉडेल म्हणून मानवी जीनोम प्रकल्प
एक जीवशास्त्रज्ञ म्हणून, मला विशेषतः मानवी जीनोम प्रकल्पाच्या (Human Genome Project - HGP) कामगिरीची आणि शेवटी सेलेरा जीनोमिक्सच्या (Celera Genomics) नफा-आधारित उपक्रमाला मागे टाकून, या क्षेत्राला आणि संपूर्ण मानवतेला कसा फायदा झाला याची जाणीव आहे.
HGP हा एक যুগান্তকারী आंतरराष्ट्रीय संशोधन उपक्रम होता ज्याने संपूर्ण मानवी जीनोमचे (human genome) मॅपिंग आणि सिक्वेन्सिंग केले. 2003 मध्ये 13 वर्षांच्या सहकार्यानंतर पूर्ण झालेल्या, 2011 च्या अहवालानुसार, 2013 मध्ये अद्यतनित केलेल्या (अमेरिकन अर्थव्यवस्थेसाठी 141 ते एक गुंतवणुकीवर परतावा - प्रत्येक $1 फेडरल HGP गुंतवणुकीने अर्थव्यवस्थेत $141 निर्माण करण्यासाठी योगदान दिले आहे) $3 अब्ज गुंतवणुकीतून सुमारे $800 अब्ज आर्थिक प्रभाव निर्माण केला आहे. याने वैयक्तिकृत औषध, रोग प्रतिबंधक आणि जीनोमिक संशोधनातील प्रगती सक्षम करून औषध, जैवतंत्रज्ञान आणि अनुवांशिकशास्त्रामध्ये क्रांती घडवून आणली आहे. सिक्वेन्सिंगचे काम आणि संशोधन सहा देशांतील 20 प्रयोगशाळांनी केले: अमेरिका, यूके, फ्रान्स, जर्मनी, जपान आणि चीन.
सेलेरा जीनोमिक्सने (Celera Genomics) नफ्यासाठी जीनोमिक सिक्वेन्स (genomic sequences) करण्याचा प्रयत्न केला, तर HGP ने खुल्या डेटा शेअरिंगला (open data sharing) प्राधान्य दिले, जे त्याच्या बर्म्युडा तत्त्वांमध्ये (Bermuda Principles) समाविष्ट आहे. फेब्रुवारी 1996 मध्ये बर्म्युडा येथे झालेल्या इंटरनॅशनल स्ट्रॅटेजी मीटिंग ऑन ह्युमन जीनोम सिक्वेन्सिंगमध्ये (International Strategy Meeting on Human Genome Sequencing) स्थापित केलेली ही तत्त्वे HGP साठी डेटा-शेअरिंग धोरणे (data-sharing policies) तयार करण्यात महत्त्वपूर्ण ठरली आणि जागतिक स्तरावर जीनोमिक संशोधन पद्धतींवर त्याचा कायमस्वरूपी प्रभाव पडला आहे. त्याची मुख्य तत्त्वे होती:
- त्वरित डेटा रिलीझ: HGP द्वारे तयार केलेला सर्व मानवी जीनोमिक सिक्वेन्स डेटा (human genomic sequence data) सार्वजनिक डेटाबेसमध्ये (public databases) शक्यतो 24 तासांच्या आत प्रसिद्ध केला जाईल. या जलद प्रसारामुळे वैज्ञानिक शोधांना गती देणे आणि सामाजिक फायदे वाढवणे हे उद्दिष्ट होते.
- विनामूल्य आणि अनिर्बंधित प्रवेश: डेटा जागतिक वैज्ञानिक समुदाय आणि जनतेसाठी विनामूल्य उपलब्ध करून दिला जाईल, ज्यामध्ये संशोधन किंवा विकासाच्या उद्देशाने त्यांच्या वापरावर कोणतेही निर्बंध नाहीत.
- बौद्धिक संपदा हक्कांचा प्रतिबंध: सहभागींनी सहमती दर्शविली की प्राथमिक जीनोमिक सिक्वेन्स डेटावर (primary genomic sequence data) कोणतेही बौद्धिक संपदा अधिकार (intellectual property rights) घेतले जाणार नाहीत, ज्यामुळे खुल्या-विज्ञानाच्या नीतिमत्तेला (open-science ethos) प्रोत्साहन मिळेल आणि पेटंटमुळे संशोधनात संभाव्य अडथळे टाळता येतील.
प्रशासनाच्या दृष्टीने, HGP हा एक सहयोगी आणि समन्वित वैज्ञानिक उपक्रम होता, स्वतंत्र संस्था किंवा महामंडळ नाही. हा एक विकेंद्रित प्रयत्न होता ज्याला विविध संशोधन संस्थांना सरकारी अनुदान आणि करारांद्वारे निधी दिला जात होता. त्याच्या अर्थसंकल्पाचा एक भाग (3-5%) मानवी जीनोम सिक्वेन्सिंगशी (human genome sequencing) संबंधित नैतिक, कायदेशीर आणि सामाजिक चिंतांचा अभ्यास आणि निराकरण करण्यासाठी समर्पित होता.
AI सुरक्षा आणि मुक्त स्रोत AI यांना जोडणे
ओपन-सोर्स AI चा आणखी एक महत्त्वाचा फायदा म्हणजे AI सुरक्षा संशोधनातील त्याची भूमिका.
2024 मधील AI सोल समिटने (AI Seoul Summit) केवळ अस्तित्वाच्या धोक्यांवर लक्ष केंद्रित केले, जेव्हा AICs जगाच्या उर्वरित भागांपेक्षा खूप पुढे होते. मे 2024 पर्यंत, Google चे माजी CEO एरिक श्मिट (Eric Schmidt) यांनी दावा केला की अमेरिका AI मध्ये चीनपेक्षा 2-3 वर्षे पुढे आहे, तर युरोप नियमनामध्ये इतका व्यस्त आहे की तो संबंधित नाही. जर समिट यशस्वी झाले असते, तर त्याने AI सुरक्षा निर्णयांचे नियंत्रण प्रभावीपणे या कॉर्पोरेशन्सकडे सोपवले असते. सुदैवाने, तसे झाले नाही.
आता ओपन-सोर्स AI तांत्रिक अंतर कमी करत आहे, सुरक्षिततेच्या चर्चा केवळ मूठभर প্রভাবশালী खेळाडूंद्वारे ठरवल्या जाणार नाहीत. त्याऐवजी, संशोधक, धोरणकर्ते आणि युरोप, भारत, चीन आणि अबु धाबी येथील AI लॅबसह - भागधारकांचा एक विस्तृत आणि अधिक वैविध्यपूर्ण गट - AICs सोबत चर्चा घडवण्याची संधी आहे.
शिवाय, ओपन-सोर्स AI जागतिक प्रतिबंध क्षमता वाढवते, हे सुनिश्चित करते की कोणताही एक अभिनेता प्रगत AI प्रणालींवर मक्तेदारी करू शकत नाही किंवा जबाबदारीशिवाय गैरवापर करू शकत नाही. AI सुरक्षिततेसाठी हा विकेंद्रित दृष्टिकोन जागतिक AI इकोसिस्टममध्ये क्षमता आणि देखरेख दोन्ही अधिक समानतेने वितरित करून संभाव्य अस्तित्वाचे धोके कमी करण्यास मदत करेल.
पॅरिस तत्त्वांसह एक मानवी AI प्रकल्प
पुढील आठवड्यात पॅरिसमधील AI ॲक्शन समिट (AI Action Summit) AI च्या भविष्याला आकार देण्यासाठी कोणती भूमिका बजावू शकते?
जागतिक स्तरावर ओपन-सोर्स AI विकासाला चालना देण्यासाठी आणि समर्थन देण्यासाठी, मानवी जीनोम प्रकल्पाच्या (Human Genome Project) धर्तीवर, एक मानवी AI प्रकल्प (Human AI Project) स्थापन करण्याची ही एक महत्त्वपूर्ण संधी आहे. सध्याचे ओपन-सोर्स योगदान, पायनियरिंग युरोपियन AI लॅबपासून डीपसीकपर्यंत (DeepSeek), आधीच या क्षेत्राला गती देत आहेत आणि AICs सोबतचे अंतर कमी करण्यास मदत करत आहेत.
AI ची क्षमता सामान्य ओपन-सोर्स इकोसिस्टमच्या (open-source ecosystem) परिपक्वतेमुळे लक्षणीयरीत्या वाढली आहे, हजारो प्रौढ प्रकल्प, समर्पित प्रशासन मॉडेल आणि एंटरप्राइझ, शैक्षणिक आणि सरकारमध्ये खोल एकत्रीकरण आहे.
AI ओपन-सोर्स इकोसिस्टमला (AI open-source ecosystem) Github आणि Gitlab सारख्या प्लॅटफॉर्मचाही फायदा होतो. अलीकडे, ओपन-सोर्स AI साठी समर्पित प्लॅटफॉर्म, जसे की Hugging Face - तीन फ्रेंच उद्योजकांनी सह-स्थापन केलेली एक अमेरिकन कॉर्पोरेशन - समुदायासाठी वितरण प्लॅटफॉर्म म्हणून महत्त्वपूर्ण भूमिका बजावू लागले आहेत.
1990 च्या दशकाच्या सुरुवातीच्या काळात मानवी जीनोम सिक्वेन्सिंगच्या (human genome sequencing) तुलनेत ओपन-सोर्स AI इकोसिस्टमची (open-source AI ecosystem) सापेक्ष परिपक्वता लक्षात घेता, ओपन-सोर्स AI ला मानवी AI प्रकल्पाचा (Human AI Project) कसा फायदा होऊ शकतो?
एक म्हणजे, युरोपियन युनियनवर (European Union) अनेकदा AICs आणि त्याच्या स्वतःच्या फ्रंटियर AI लॅबद्वारे ओपन सोर्सच्या (open source) नियमनासाठी टीका केली जाते. एक मानवी AI प्रकल्प (Human AI Project) सहभागी देश आणि प्रदेशांमध्ये नियामक संरेखन आणि मानके विकसित करण्यासाठी संयुक्त प्रयत्न करू शकतो. युरोप, भारत, अबु धाबी आणि चीन यांच्या सुरुवातीच्या योगदानासह एक समन्वित दृष्टिकोन, या सामायिक नियामक क्षेत्रामध्ये (ओपन सोर्ससाठी एक प्रकारचा मुक्त व्यापार क्षेत्र) ओपन-सोर्स मॉडेल्सचा (open-source models) प्रसार सुलभ करू शकतो.
निश्चितपणे सिद्ध झाले नसले तरी, JLF मध्ये डीपसीकला (DeepSeek) मिळालेल्या प्रतिक्रियेला आकार देणाऱ्या स्पर्धेवर आधारित गतिशीलतेशी समानता आहे. त्याचप्रमाणे, AI नियमन AICs च्या प्रगतीमध्ये अडथळा आणण्यासाठी किंवा अंतर कमी करण्यासाठी प्रयत्न करणाऱ्या होमग्राउन AI चॅम्पियन्सना (homegrown AI champions) अडथळा आणण्यासाठी एक संभाव्य यंत्रणा म्हणून काम करण्याऐवजी, नावीन्यपूर्णतेला चालना देण्यासाठी आणि सार्वजनिक हित - उद्योग आणि ग्राहक दोघांसाठी - वाढवण्यासाठी तयार केले जाऊ शकते.
हा प्रकल्प प्रतिभा विनिमय (talent exchange) आणि ओपन-सोर्स AI साठी सामायिक संगणकीय पायाभूत सुविधा (ऊर्जा पायाभूत सुविधांशी जोडलेले) देखील सुलभ करू शकतो. खालील तक्त्यावरून हे स्पष्ट होते की जगाच्या काही भागांतील प्रतिभावान STEM पदवीधरांना सध्या त्यांच्या देशात नसलेल्या जागतिक दर्जाच्या AI पायाभूत सुविधांमध्ये प्रवेश मिळवण्यासाठी संघर्ष करावा लागू शकतो.
सहकार्याचे आणखी एक क्षेत्र म्हणजे मॉडेल आणि डेटा सेटसाठी (data sets) ओपन ॲक्सेस स्टँडर्डवर (open access standards) सर्वोत्तम पद्धती स्थापित करणे, ज्यामध्ये वेट्स (weights), कोड (code) आणि डॉक्युमेंटेशन (documentation) समाविष्ट आहे.
हा प्रकल्प AI सुरक्षा संशोधनावर (AI Safety Research) जागतिक सहकार्याला चालना देऊ शकतो. गुप्तपणे अलाइनमेंट (alignment) समस्यांचे निराकरण करण्यासाठी शर्यत करण्याऐवजी, पॅरिस ते बीजिंग ते बंगळूरमधील संशोधक मॉडेल्सचे (models) मूल्यांकन करण्यासाठी आणि धोके कमी करण्यासाठी एकत्र काम करू शकतात. सर्व सुरक्षा निष्कर्ष (उदा., हानिकारक आउटपुट कमी करण्याच्या पद्धती किंवा इंटरप्रिटेबिलिटीसाठी (interpretability) साधने) त्वरित ओपन डोमेनमध्ये (open domain) शेअर केले जाऊ शकतात.
हे तत्त्व ओळखेल की AI सुरक्षा हे एक जागतिक सार्वजनिक हित आहे - एका लॅबमधील यश (समजा, AI तर्क पारदर्शक करण्यासाठी एक नवीन अल्गोरिदम) सर्वांना फायदेशीर ठरेल, ते प्रोप्रायटरी (proprietary) ठेवू नये. संयुक्त सुरक्षा बेंचमार्क (benchmarks) आणि चॅलेंज इव्हेंट्स (challenge events) आयोजित केले जाऊ शकतात जेणेकरून सामूहिक जबाबदारीच्या संस्कृतीला प्रोत्साहन मिळेल. सुरक्षा संशोधन एकत्र करून, हा प्रकल्प संभाव्य AI गैरवापर किंवा अपघातांपासून पुढे राहण्याचे उद्दिष्ट ठेवेल, जनतेला আশ্বস্ত करेल की शक्तिशाली AI प्रणालींची काळजीपूर्वक देखरेख केली जात आहे.
ब्लेचले पार्क (Bletchley Park) येथील 2023 च्या यूके AI सुरक्षा समिटमध्ये (UK AI Safety Summit) अस्तित्वाच्या धोक्यावर लक्ष केंद्रित केल्यामुळे, आण्विक प्रसार (Nuclear Proliferation) सादृश्यावर जास्त जोर देऊन, सुरक्षितता हे सार्वजनिक हित मानले जाते अशा इतर क्षेत्रांचे परीक्षण करण्याची संधी गमावली: सायबर सुरक्षा (cybersecurity), प्रतिजैविके (antibiotics) आणि इम्युनोलॉजी (immunology) (कोविड-19 नंतर अनेक मनोरंजक उपक्रमांसह) आणि विमानचालन सुरक्षा (aviation safety).
हा प्रकल्प सुरक्षित आणि प्रगत AI प्रणालींच्या विकासाला चालना देण्यासाठी खाजगी ARC प्राइज फाउंडेशनद्वारे (ARC Prize Foundation) सध्या सुरू असलेल्या कार्यामध्ये भागीदार होऊ शकतो आणि पुढे जाऊ शकतो. ARC प्राइज (ARC Prize), फ्रँकोइस चोलेट (François Chollet), केरस ओपन-सोर्स लायब्ररीचे (Keras open-source library) निर्माते आणि झॅपियर (Zapier) सॉफ्टवेअर कंपनीचे सह-संस्थापक माईक नूप (Mike Knoop) यांनी सह-स्थापन केले आहे, ही एक ना-नफा संस्था आहे जी आर्टिफिशियल जनरल इंटेलिजेंस (AGI) संशोधनाला पुढे नेण्यासाठी सार्वजनिक स्पर्धा आयोजित करते. त्यांचा प्रमुख कार्यक्रम, ARC प्राइज स्पर्धा (ARC Prize competition), ARC-AGI बेंचमार्कचे (ARC-AGI benchmark) निराकरण करण्यासाठी आणि ओपन-सोर्स (open-source) उपाय विकसित करू शकणाऱ्या सहभागींना $1 दशलक्षपेक्षा जास्त ऑफर करते - ही चाचणी AI प्रणालीची सामान्यीकरण आणि नवीन कौशल्ये कार्यक्षमतेने आत्मसात करण्याची क्षमता तपासण्यासाठी तयार केली गेली आहे.
ARC प्राइज फाउंडेशनचा (ARC Prize Foundation) ओपन-सोर्स सोल्यूशन्स (open-source solutions) आणि सार्वजनिक स्पर्धांवर भर देणे, AI विकासातील आंतरराष्ट्रीय सहकार्य आणि पारदर्शकतेला चालना देण्याच्या मानवी AI प्रकल्पाच्या (Human AI Project) उद्दिष्टांशी अखंडपणे जुळते, जसे ARC प्राइज फाउंडेशनच्या (ARC Prize Foundation) वेबसाइटवर ‘AGI’ अंतर्गत नमूद केले आहे:
“LLMs ना अकल्पनीय प्रमाणात डेटावर प्रशिक्षित केले जाते, तरीही ते ज्यावर प्रशिक्षित केलेले नाहीत अशा साध्या समस्यांशी जुळवून घेण्यास किंवा नवीन शोध लावण्यास अक्षम राहतात, मग ते कितीही मूलभूत असले तरीही. मजबूत बाजार प्रोत्साहनांनी फ्रंटियर AI संशोधनाला (frontier AI research) क्लोज्ड सोर्स (closed source) बनवण्यासाठी ढकलले आहे. संशोधनाचे लक्ष आणि संसाधने एका डेड एंडकडे (dead end) खेचली जात आहेत. ARC प्राइज (ARC Prize) संशोधकांना नवीन तांत्रिक दृष्टिकोन शोधण्यासाठी प्रेरित करण्यासाठी डिझाइन केले आहे जे ओपन AGI प्रगतीला पुढे नेतील.”
HGP प्रमाणे, मानवी AI प्रकल्प (Human AI Project) त्याच्या निधीचा काही भाग नैतिक प्रशासन आणि देखरेखीसाठी समर्पित करेल. यामध्ये कॉपीराइटबद्दल (copyright) चर्चा समाविष्ट असेल. हा प्रकल्प समाजाला प्रशिक्षणासाठी विनामूल्य माहितीच्या सर्वोत्तम स्त्रोतामध्ये प्रवेश करण्याच्या नैतिकतेवर विचार करण्यास मदत करू शकतो, त्याच वेळी त्यावर प्रोप्रायटरी मॉडेल्स (proprietary models) विकसित करू शकतो. जीवशास्त्र क्षेत्रात, हे सर्वज्ञात आहे की प्रोटीन डेटा बँक (Protein Data Bank), जी Google DeepMind च्या अल्फाफोल्ड मॉडेलसाठी (AlphaFold model) प्रथिने रचना (protein structure) वर्तवण्यासाठी महत्त्वपूर्ण होती, त्यासाठी 50 वर्षांच्या कालावधीत $10 अब्ज निधीची आवश्यकता होती. हा प्रकल्प AI विकासासाठी निधी कसा द्यायचा किंवा प्रोप्रायटरी AICs नी मूळ कामाच्या निर्मात्यांसोबत महसूल कसा शेअर करावा याबद्दल विचार करण्यास मदत करू शकतो.
एकत्रितपणे, ही पॅरिस तत्त्वे (Paris Principles) आणि मानवी AI प्रकल्प (Human AI Project) AI ला जागतिक स्तरावर अधिक खुल्या, सहयोगी आणि नैतिक पद्धतीने पुढे नेण्यास मदत करतील. ते विद्यमान ओपन-सोर्स सॉफ्टवेअर (open-source software) आणि AI-विशिष्ट फ्रेमवर्क (AI-specific frameworks) आणि प्लॅटफॉर्ममध्ये (platforms), युरोपपासून मध्य पूर्व, भारत आणि आता चीनपर्यंतच्या आघाडीच्या ओपन-सोर्स (open-source) योगदानकर्त्यांच्या कामगिरीवर आधारित असतील.
AI सह इतिहासाची पुनरावृत्ती
आपल्यासमोर असलेली संधी प्रचंड आहे. Mistral AI, kyutai, BFL, Stability, आणि अलीकडेच DeepSeek यांनी जनतेला आशा दिली आहे की एक असे भविष्य शक्य आहे जिथे सहकार्य प्रोप्रायटरी AICs शी स्पर्धा करेल किंवा त्यांना मागे टाकेल.
आपण अजूनही या तांत्रिक प्रगतीच्या सुरुवातीच्या टप्प्यात आहोत. AICs नी या क्षेत्रात दिलेल्या योगदानाबद्दल आपण कृतज्ञ असले पाहिजे. AI ॲक्शन समिट (AI Action Summit) ही अभूतपूर्व प्रमाणावर सहकारी नावीन्यपूर्णतेला चालना देण्याची आणि शक्य तितक्या खेळाडूंना इतिहासाच्या योग्य बाजूला आणण्याची संधी असावी.
हे पुन्हा 1789 आहे. आपण तांत्रिक सार्वभौमत्वासाठीचा लढा, सत्तेचे विकेंद्रीकरण आणि AI ला सार्वजनिक हित म्हणून पाहण्याची मागणी पाहत आहोत. आणि 1789 प्रमाणेच, ही क्रांती थांबवता येणार नाही.