गूगल के जेमिनी 2.5 प्रो पर सवाल

गूगल के जेमिनी 2.5 प्रो एआई मॉडल की हालिया रिलीज ने एक महत्वपूर्ण सुरक्षा रिपोर्ट के अभाव के कारण विवाद खड़ा कर दिया है। यह चूक अमेरिकी सरकार और अंतर्राष्ट्रीय शिखर सम्मेलनों में गूगल द्वारा किए गए वादों का खंडन करती हुई प्रतीत होती है, जिससे कंपनी की पारदर्शिता और जिम्मेदार एआई विकास के प्रति प्रतिबद्धता के बारे में चिंताएं बढ़ गई हैं। विशेषज्ञ अब सवाल कर रहे हैं कि क्या गूगल और अन्य प्रमुख एआई लैब अपने एआई मॉडल से जुड़ी क्षमताओं और संभावित जोखिमों के बारे में जनता को सूचित करने के अपने वादों से पीछे हट रहे हैं।

टूटे वादे और अधूरी प्रतिबद्धताएं

जेमिनी 2.5 प्रो रिलीज के साथ एक सुरक्षा अनुसंधान रिपोर्ट प्रदान करने में गूगल की विफलता को पिछली प्रतिबद्धताओं का उल्लंघन माना जा रहा है। जुलाई 2023 में, गूगल ने बिडेन प्रशासन द्वारा बुलाई गई व्हाइट हाउस की बैठक में भाग लिया, जहां यह अन्य प्रमुख एआई कंपनियों के साथ कई प्रतिज्ञाओं पर हस्ताक्षर करने में शामिल हो गया। एक महत्वपूर्ण प्रतिबद्धता सभी प्रमुख सार्वजनिक मॉडल रिलीज के लिए रिपोर्ट का प्रकाशन था, जो उस समय कला एआई की वर्तमान स्थिति से आगे निकल गई थी। अपनी प्रगति को देखते हुए, जेमिनी 2.5 प्रो लगभग निश्चित रूप से इन व्हाइट हाउस प्रतिबद्धताओं के दायरे में आएगा।

उस समय, गूगल इस बात पर सहमत हुआ कि इन रिपोर्टों में शामिल होना चाहिए:

  • किए गए सुरक्षा मूल्यांकन, जिसमें खतरनाक क्षमताओं का आकलन शामिल है।
  • महत्वपूर्ण प्रदर्शन सीमाएं जो उपयुक्त उपयोग के मामलों को प्रभावित कर सकती हैं।
  • निष्पक्षता और पूर्वाग्रह जैसे सामाजिक जोखिमों पर मॉडल के प्रभावों पर चर्चा।
  • तैनाती के लिए मॉडल की फिटनेस का मूल्यांकन करने के लिए प्रतिकूल परीक्षण के परिणाम।

अक्टूबर 2023 में हिरोशिमा, जापान में जी7 बैठक के बाद, गूगल और अन्य कंपनियों ने उन्नत एआई के विकास के लिए एक स्वैच्छिक आचार संहिता का पालन करने का संकल्प लिया। इस जी7 कोड ने उन्नत एआई सिस्टम की क्षमताओं, सीमाओं और उपयुक्त और अनुपयुक्त अनुप्रयोगों की सार्वजनिक रूप से रिपोर्टिंग के महत्व पर जोर दिया। इसका उद्देश्य एआई क्षेत्र में पारदर्शिता और जवाबदेही बढ़ाना था।

मई 2024 में, सियोल, दक्षिण कोरिया में एआई सुरक्षा पर एक अंतरराष्ट्रीय शिखर सम्मेलन में, गूगल ने अपनी प्रतिबद्धताओं को दोहराया। कंपनी ने मॉडल क्षमताओं, सीमाओं, उपयुक्त और अनुपयुक्त उपयोग के मामलों का सार्वजनिक रूप से खुलासा करने और अपने जोखिम आकलन और परिणामों के बारे में पारदर्शिता प्रदान करने का वादा किया।

गूगल की प्रतिक्रिया और विलंबित पारदर्शिता

लापता सुरक्षा रिपोर्ट के बारे में पूछताछ के जवाब में, गूगल डीपमाइंड के एक प्रवक्ता, जेमिनी मॉडल विकसित करने के लिए जिम्मेदार प्रभाग ने कहा कि नवीनतम जेमिनी का प्री-रिलीज परीक्षण किया गया था। इसमें मॉडल की रिलीज से पहले आंतरिक विकास मूल्यांकन और आश्वासन मूल्यांकन शामिल थे। प्रवक्ता ने यह भी संकेत दिया कि अतिरिक्त सुरक्षा जानकारी और मॉडल कार्ड के साथ एक रिपोर्ट ‘आने वाली’ है। हालाँकि, 2 अप्रैल को प्रारंभिक बयान जारी होने के बावजूद, आज तक कोई मॉडल कार्ड प्रकाशित नहीं किया गया है।

सुरक्षा रिपोर्टिंग की उपेक्षा की एक व्यापक प्रवृत्ति

एआई सुरक्षा के प्रति अपनी प्रतिबद्धता के संबंध में आलोचना का सामना करने में गूगल अकेला नहीं है। इस साल की शुरुआत में, OpenAI को अपने डीप रिसर्च मॉडल के लिए समय पर मॉडल कार्ड जारी करने में विफल रहने के लिए भी जांच का सामना करना पड़ा। इसके बजाय, उन्होंने परियोजना की प्रारंभिक रिलीज के हफ्तों बाद एक सिस्टम कार्ड प्रकाशित किया। इसी तरह, लामा 4 के लिए मेटा की हालिया सुरक्षा रिपोर्ट की बहुत संक्षिप्त और विस्तृत न होने के लिए आलोचना की गई है।

ये उदाहरण एआई उद्योग के भीतर एक चिंताजनक प्रवृत्ति को उजागर करते हैं, जहां कुछ प्रमुख लैब अपने मॉडल रिलीज के अनुरूप सुरक्षा रिपोर्टिंग को प्राथमिकता नहीं दे रही हैं। यह विशेष रूप से परेशान करने वाला है क्योंकि इन कंपनियों ने अमेरिकी सरकार और वैश्विक समुदाय से ऐसी रिपोर्ट तैयार करने के लिए स्वैच्छिक प्रतिबद्धताएं की हैं। ये प्रतिबद्धताएं शुरू में 2023 में बिडेन प्रशासन से की गई थीं और बाद में हिरोशिमा में अपने एआई शिखर सम्मेलन में जी7 राष्ट्रों द्वारा अपनाई गई एआई आचार संहिता का पालन करने के वादों के माध्यम से प्रबलित हुईं।

सेंटर फॉर डेमोक्रेसी एंड टेक्नोलॉजी में एआई गवर्नेंस पर सलाहकार केविन बैंकस्टन ने अपनी निराशा व्यक्त करते हुए कहा कि ये विफलताएं शामिल कंपनियों की विश्वसनीयता को कमजोर करती हैं और जिम्मेदार एआई विकास के प्रति उनकी प्रतिबद्धता के बारे में सवाल उठाती हैं।

अनुत्तरित प्रश्न और बाहरी मूल्यांकन

गूगल के प्रवक्ता का बयान इस बारे में विशिष्ट प्रश्नों को संबोधित करने में भी विफल रहा कि क्या जेमिनी 2.5 प्रो को यूके एआई सुरक्षा संस्थान या यूएस एआई सुरक्षा संस्थान द्वारा बाहरी मूल्यांकन के लिए प्रस्तुत किया गया था। पहले, गूगल ने अपनी जेमिनी मॉडल की पिछली पीढ़ियों को मूल्यांकन के लिए यूके एआई सुरक्षा संस्थान को प्रदान किया था।

सियोल सुरक्षा शिखर सम्मेलन में, गूगल ने ‘फ्रंटियर एआई सुरक्षा प्रतिबद्धताओं’ पर हस्ताक्षर किए, जिसमें सुरक्षा मूल्यांकन के कार्यान्वयन पर सार्वजनिक पारदर्शिता प्रदान करने का संकल्प शामिल था। एकमात्र अपवाद ऐसे मामले थे जहां ऐसा करने से जोखिम बढ़ जाएगा या संवेदनशील वाणिज्यिक जानकारी को उस हद तक प्रकट किया जाएगा जो सामाजिक लाभ के लिए असंगत है। प्रतिज्ञा में यह भी कहा गया है कि अधिक विस्तृत जानकारी जिसे सार्वजनिक रूप से साझा नहीं किया जा सकता है, फिर भी उन देशों की सरकारों के साथ साझा की जानी चाहिए जिनमें कंपनियां स्थित हैं, जो गूगल के मामले में अमेरिका होगा।

कंपनियों ने यह भी बताने का संकल्प लिया कि उनके एआई मॉडल के जोखिमों का आकलन करने की प्रक्रिया में सरकारें, नागरिक समाज, शिक्षाविद और जनता जैसे बाहरी अभिनेता कैसे शामिल हैं। गूगल की ओर से इस बारे में सीधे सवालों का जवाब देने में विफलता कि उसने जेमिनी 2.5 प्रो को अमेरिकी या यूके सरकार के मूल्यांकनकर्ताओं को प्रस्तुत किया है या नहीं, संभावित रूप से इस प्रतिबद्धता का भी उल्लंघन करता है।

पारदर्शिता पर तैनाती को प्राथमिकता देना

सुरक्षा रिपोर्ट के अभाव ने चिंता जताई है कि गूगल पारदर्शिता और गहन सुरक्षा आकलन पर त्वरित तैनाती को प्राथमिकता दे रहा है। ऑक्सफोर्ड इंटरनेट इंस्टीट्यूट में प्रोफेसर और वरिष्ठ शोधकर्ता सैंड्रा वाचर ने जिम्मेदार अनुसंधान और नवाचार में पारदर्शिता के महत्व पर जोर दिया। उन्होंने अन्य उद्योगों के साथ एक सादृश्य बनाया, जिसमें कहा गया कि ‘अगर यह एक कार या एक विमान होता, तो हम यह नहीं कहते: आइए इसे जितनी जल्दी हो सके बाजार में लाएं और हम बाद में सुरक्षा पहलुओं पर ध्यान देंगे।’ वाचर ने चिंता व्यक्त की कि जनरेटिव एआई क्षेत्र के भीतर एक प्रचलित दृष्टिकोण है कि ‘इसे वहां से बाहर निकालो और चिंता करो, जांच करो और बाद में इसके साथ मुद्दों को ठीक करो।’

राजनीतिक बदलाव और प्रतिस्पर्धी दबाव

हाल के राजनीतिक बदलाव, बड़ी तकनीकी कंपनियों के बीच तीव्र प्रतिद्वंद्विता के साथ मिलकर, पहले की सुरक्षा प्रतिबद्धताओं से दूर एक बदलाव में योगदान कर सकते हैं क्योंकि कंपनियां एआई मॉडल को तैनात करने के लिए दौड़ती हैं। वाचर ने नोट किया कि ‘इन कंपनियों पर तेज होने, त्वरित होने, पहले होने, सर्वश्रेष्ठ होने, हावी होने का दबाव पहले की तुलना में अधिक प्रबल है,’ यह कहते हुए कि पूरे उद्योग में सुरक्षा मानकों में गिरावट आ रही है।

इन फिसलते मानकों को कुछ सरकारों और तकनीकी देशों के बीच इस बढ़ती चिंता से प्रेरित किया जा सकता है कि एआई सुरक्षा प्रक्रियाएं नवाचार में बाधा डाल रही हैं। अमेरिका में, ट्रम्प प्रशासन ने बिडेन प्रशासन की तुलना में एआई विनियमन के लिए कम कठोर दृष्टिकोण अपनाने के अपने इरादे का संकेत दिया है। नए प्रशासन ने पहले ही एआई पर बिडेन-युग के कार्यकारी आदेश को रद्द कर दिया है और तकनीकी नेताओं के साथ घनिष्ठ संबंध बना रहा है। पेरिस में हाल ही में हुए एआई शिखर सम्मेलन में, अमेरिकी उपराष्ट्रपति जेडी वेंस ने कहा कि सुरक्षा पर ‘विकास समर्थक एआई नीतियों’ को प्राथमिकता दी जानी चाहिए, और एआई ‘एक अवसर था जिसे ट्रम्प प्रशासन बर्बाद नहीं करेगा।’

उसी शिखर सम्मेलन में, यूके और अमेरिका दोनों ने कृत्रिम बुद्धिमत्ता पर एक अंतरराष्ट्रीय समझौते पर हस्ताक्षर करने से इनकार कर दिया, जिसने प्रौद्योगिकी के विकास के लिए एक ‘खुले,’ ‘समावेशी’ और ‘नैतिक’ दृष्टिकोण को बढ़ावा दिया।

स्पष्ट पारदर्शिता आवश्यकताओं की आवश्यकता

बैंकस्टन ने जोर देकर कहा कि ‘अगर हम इन कंपनियों पर नए मॉडल जारी करते समय उनकी सबसे बुनियादी सुरक्षा और पारदर्शिता प्रतिबद्धताओं को भी पूरा करने के लिए भरोसा नहीं कर सकते हैं - प्रतिबद्धताएं जो उन्होंने खुद स्वेच्छा से की थीं - तो वे स्पष्ट रूप से क्षेत्र पर हावी होने की अपनी प्रतिस्पर्धी दौड़ में बहुत जल्दी मॉडल जारी कर रही हैं।’ उन्होंने कहा कि चूंकि एआई डेवलपर इन प्रतिबद्धताओं में विफल होते रहते हैं, इसलिए विधायकों पर स्पष्ट पारदर्शिता आवश्यकताओं को विकसित करने और लागू करने की जिम्मेदारी होगी जिससे कंपनियां बच नहीं सकती हैं।

एआई शासन के लिए व्यापक निहितार्थ

गूगल के जेमिनी 2.5 प्रो और लापता सुरक्षा रिपोर्ट को लेकर विवाद मजबूत एआई शासन ढांचे की महत्वपूर्ण आवश्यकता को रेखांकित करता है। इन ढांचों को प्रमुख मुद्दों को संबोधित करना चाहिए जैसे:

  • पारदर्शिता: यह सुनिश्चित करना कि एआई डेवलपर अपने मॉडल की क्षमताओं, सीमाओं और संभावित जोखिमों के बारे में पारदर्शी हैं।
  • जवाबदेही: एआई सिस्टम के विकास और तैनाती के लिए जवाबदेही की स्पष्ट पंक्तियों की स्थापना।
  • सुरक्षा: नुकसान के जोखिम को कम करने के लिए कठोर सुरक्षा परीक्षण और मूल्यांकन प्रक्रियाओं को लागू करना।
  • नैतिक विचार: एआई सिस्टम के डिजाइन और विकास में नैतिक सिद्धांतों का एकीकरण।
  • सार्वजनिक जुड़ाव: एआई और इसके निहितार्थों की व्यापक समझ को बढ़ावा देने के लिए जनता के साथ जुड़ना।
  • अंतर्राष्ट्रीय सहयोग: एआई शासन के लिए सामान्य मानकों और सर्वोत्तम प्रथाओं को विकसित करने के लिए अंतर्राष्ट्रीय स्तर पर सहयोग करना।

जेमिनी 2.5 प्रो के आसपास पारदर्शिता की कमी एआई शासन के इन महत्वपूर्ण पहलुओं की उपेक्षा के संभावित परिणामों को उजागर करती है। पर्याप्त पारदर्शिता और जवाबदेही के बिना, एआई सिस्टम के वास्तविक प्रभाव का आकलन करना और यह सुनिश्चित करना मुश्किल हो जाता है कि उन्हें एक जिम्मेदार और नैतिक तरीके से विकसित और तैनात किया जाए।

आगे बढ़ना: अधिक जिम्मेदारी के लिए एक आह्वान

एआई उद्योग एक महत्वपूर्ण मोड़ पर है। जैसे-जैसे एआई प्रौद्योगिकियां तेजी से शक्तिशाली और व्यापक होती जा रही हैं, यह आवश्यक है कि डेवलपर सुरक्षा, पारदर्शिता और नैतिक विचारों को प्राथमिकता दें। जेमिनी 2.5 प्रो के आसपास का विवाद एक अनुस्मारक के रूप में कार्य करता है कि स्वैच्छिक प्रतिबद्धताएं हमेशा पर्याप्त नहीं होती हैं। सरकारों और नियामक निकायों को स्पष्ट मानक स्थापित करने और अनुपालन लागू करने में अधिक सक्रिय भूमिका निभानी चाहिए।

इसके अलावा, एआई डेवलपर्स के लिए जनता के साथ जुड़ना और एआई और इसके निहितार्थों की व्यापक समझ को बढ़ावा देना महत्वपूर्ण है। इसमें एआई सिस्टम की सीमाओं और संभावित जोखिमों के साथ-साथ उन जोखिमों को कम करने के लिए उठाए जा रहे कदमों के बारे में पारदर्शी होना शामिल है। साथ मिलकर काम करके, एआई उद्योग, सरकारें और जनता यह सुनिश्चित कर सकते हैं कि एआई तकनीकों को इस तरह से विकसित और तैनात किया जाए जिससे पूरे समाज को लाभ हो।