गुगलच्या Gemini 2.5 Pro एआय मॉडेलच्या (AI Model) प्रकाशनामुळे एक नवीन वाद निर्माण झाला आहे, कारण या मॉडेलसोबत महत्त्वाचा सुरक्षा अहवाल (Safety Report) देण्यात आलेला नाही. अमेरिकन सरकार (U.S. Government) आणि आंतरराष्ट्रीय स्तरावरील परिषदांमध्ये गुगलने (Google) जी आश्वासने दिली होती, त्याच्याशी हे स्पष्टपणे विसंगत आहे. त्यामुळे कंपनीची पारदर्शकता (Transparency) आणि जबाबदार एआय विकासाप्रती (Responsible AI Development) असलेली बांधिलकी संशयाच्या भोवऱ्यात सापडली आहे. तज्ञांनी आता प्रश्न उपस्थित करायला सुरुवात केली आहे की, गुगल आणि इतर प्रमुख एआय प्रयोगशाळा (AI Labs), त्यांच्या एआय मॉडेल्सच्या क्षमते आणि संभाव्य धोक्यांविषयी लोकांना माहिती देण्याच्या वचनांपासून मागे हटत आहेत का?
मोडलेली आश्वासने आणि अपूर्ण वचनबद्धता
Gemini 2.5 Pro च्या प्रकाशनासोबत सुरक्षा अहवाल (Safety Research Report) सादर करण्यात गुगलला आलेले अपयश, यापूर्वी केलेल्या वचनांचा भंग असल्याचे मानले जात आहे. जुलै २०२३ मध्ये, गुगलने बायडेन प्रशासनाने (Biden Administration) आयोजित केलेल्या व्हाईट हाऊसच्या (White House) बैठकीत भाग घेतला होता. त्यावेळी इतर प्रमुख एआय कंपन्यांबरोबर (AI Companies) गुगलनेही अनेक वचनांवर स्वाक्षरी केली होती. यातील एक महत्त्वाचे वचन म्हणजे, अत्याधुनिक एआयपेक्षा (State-of-the-Art AI) सरस ठरणाऱ्या सार्वजनिक मॉडेलच्या प्रकाशनासोबत अहवाल प्रकाशित करणे. Gemini 2.5 Pro च्या प्रगती पाहता, हे मॉडेल निश्चितपणे व्हाईट हाऊस कमिटमेंट्सच्या (White House Commitments) कक्षेत येते.
त्यावेळी गुगलने सहमती दर्शवली होती की, या अहवालांमध्ये खालील गोष्टींचा समावेश असावा:
- धोकादायक क्षमतांचे मूल्यांकन (Assessments of dangerous capabilities) तसेच सुरक्षा मूल्यांकने (Safety evaluations).
- उपयुक्तता (Appropriate use cases) आणि महत्त्वपूर्ण कार्यक्षमतेच्या मर्यादा (Significant performance limitations) ज्यावर परिणाम करू शकतात.
- समाजातील निष्पक्षता (Fairness) आणिBias ( पूर्वग्रह ) यासारख्या धोक्यांवर मॉडेलचे परिणाम.
- तैनातीसाठी मॉडेलच्या योग्यतेचे मूल्यांकन करण्यासाठी प्रतिकूल चाचणीचे निकाल (Results of adversarial testing).
ऑक्टोबर २०२३ मध्ये जपानमधील (Japan) हिरोशिमा येथे झालेल्या जी-७ (G7) बैठकीनंतर, गुगल आणि इतर कंपन्यांनी प्रगत एआय (Advanced AI) विकसित करण्यासाठी ऐच्छिक आचारसंहितेचे पालन करण्याचे वचन दिले. या जी-७ आचारसंहितेत प्रगत एआय प्रणालींची क्षमता, मर्यादा आणि योग्य तसेच अयोग्य अनुप्रयोग (Applications) जाहीर करण्याच्या महत्त्वावर जोर देण्यात आला. या मागचा उद्देश एआय क्षेत्रात (AI Field) पारदर्शकता (Transparency) आणि उत्तरदायित्व (Accountability) वाढवणे हा होता.
मे २०२४ मध्ये, सोल (Seoul), दक्षिण कोरिया (South Korea) येथे झालेल्या एआय सुरक्षा (AI safety) वरील आंतरराष्ट्रीय परिषदेत, गुगलने आपली बांधिलकी पुन्हा एकदा स्पष्ट केली. कंपनीने मॉडेल क्षमता, मर्यादा, योग्य आणि अयोग्य वापर तसेच जोखीम मूल्यांकने (Risk assessments) आणि परिणामांबद्दल पारदर्शकता (Transparency) देण्याचे वचन दिले.
गुगलचा प्रतिसाद आणि विलंबाने होणारी पारदर्शकता
सुरक्षा अहवालाबाबत (Safety Report) विचारणा केल्यावर, गुगल डीप माइंडच्या (Google DeepMind) प्रवक्त्याने सांगितले की, Gemini मॉडेल विकसित करण्याची जबाबदारी असलेल्या विभागाने Gemini च्या नवीनतम आवृत्तीची (Latest version) प्रकाशनापूर्वी चाचणी (Pre-release testing) केली आहे. यामध्ये अंतर्गत विकास मूल्यांकन (Internal development evaluations) आणि मॉडेल रीलिज (Model release) होण्यापूर्वी केलेले मूल्यांकन (Assurance evaluations) यांचा समावेश आहे. प्रवक्त्याने असेही सांगितले की, अतिरिक्त सुरक्षा माहिती (Additional safety information) आणि मॉडेल कार्डसह (Model cards) एक अहवाल लवकरच सादर केला जाईल. मात्र, २ एप्रिल रोजी हे प्रारंभिक निवेदन (Initial statement) जारी केले असले तरी, अद्याप कोणतेही मॉडेल कार्ड प्रकाशित झालेले नाही.
सुरक्षा अहवालाकडे दुर्लक्ष करण्याचा वाढता ट्रेंड
एआय सुरक्षिततेच्या (AI safety)Commitment ( बांधिलकी ) बद्दल टीका सहन करणारी गुगल ही एकमेव कंपनी नाही. या वर्षाच्या सुरुवातीला, OpenAI ला देखील त्याच्या Deep Research मॉडेलसाठी वेळेवर मॉडेल कार्ड (Model card) जारी न केल्यामुळे टीकेला सामोरे जावे लागले. त्याऐवजी, त्यांनी प्रोजेक्ट (Project) सुरू झाल्यानंतर काही आठवड्यांनी सिस्टीम कार्ड (System card) प्रकाशित केले. त्याचप्रमाणे, Meta च्या Llama 4 च्या अलीकडील सुरक्षा अहवालावर (Safety report) टीका झाली आहे, कारण तो खूपच संक्षिप्त (Brief) आणि तपशीलवार (Detailed) नाही.
हे सर्व प्रकार एआय उद्योगातील (AI industry) एक चिंताजनक ट्रेंड (Concerning trend) दर्शवतात. काही प्रमुख प्रयोगशाळा त्यांच्या मॉडेल रीलिजच्या (Model release) अनुषंगाने सुरक्षा अहवालाला (Safety reporting) प्राधान्य देत नाहीयेत. विशेषत: हे खूप त्रासदायक आहे, कारण या कंपन्यांनी अमेरिकन सरकार (U.S. government) आणि जागतिक समुदायाला (Global community) असे अहवाल तयार करण्याचे ऐच्छिक Commitment ( वचन ) दिले होते. ही Commitments ( वचन ) सुरुवातीला बायडेन प्रशासनाला (Biden administration) २०२३ मध्ये देण्यात आली होती आणि त्यानंतर हिरोशिमा येथे झालेल्या G7 राष्ट्रांच्या AI शिखर बैठकीत AI आचारसंहितेचे (AI code of conduct) पालन करण्याचे वचन देऊन अधिक मजबूत करण्यात आले.
सेंटर फॉर डेमोक्रसी अँड टेक्नॉलॉजीमधील (Center for Democracy and Technology) एआय गव्हर्नन्सचे (AI governance) सल्लागार केविन बँकस्टन (Kevin Bankston) यांनी निराशा व्यक्त केली. ते म्हणाले की, या कंपन्यांच्या अपयशामुळे त्यांची विश्वासार्हता (Credibility) कमी होते आणि जबाबदार एआय विकासाप्रती (Responsible AI development) त्यांची Commitment ( बांधिलकी ) संशयास्पद आहे.
अनुत्तरित प्रश्न आणि बाह्य मूल्यांकन
गुगलच्या प्रवक्त्याचे (Google spokesperson) विधान Gemini 2.5 Pro यू.के. एआय सुरक्षा संस्थेकडे (U.K. AI Security Institute) किंवा यू.एस. एआय सुरक्षा संस्थेकडे (U.S. AI Safety Institute) बाह्य मूल्यांकनासाठी (External evaluation) सादर केले आहे की नाही याबद्दलच्या विशिष्ट प्रश्नांची उत्तरे देण्यात अयशस्वी ठरले. यापूर्वी, गुगलने त्याच्या Gemini मॉडेलच्या आधीच्या पिढ्यांचे मूल्यांकन करण्यासाठी यू.के. एआय सुरक्षा संस्थेकडे पाठवले होते.
सोल सुरक्षा शिखर परिषदेत (Seoul Safety Summit), गुगलने “फ्रंटियर एआय सेफ्टी कमिटमेंट्स” (Frontier AI Safety Commitments) वर स्वाक्षरी केली, ज्यात सुरक्षा मूल्यांकनांच्या (Safety evaluations) अंमलबजावणीवर सार्वजनिक पारदर्शकता (Public transparency) ठेवण्याचे वचन दिले होते. याचे काही अपवाद होते, ज्यात असे करणे धोके वाढवू शकते किंवा सामाजिक फायद्यांच्या प्रमाणात संवेदनशील व्यावसायिक माहिती (Sensitive commercial information) उघड करू शकते. या वचनात असेही म्हटले आहे की, जी माहिती सार्वजनिकरित्या (Publicly) Shared ( सामायिक ) केली जाऊ शकत नाही, ती ज्या देशांमध्ये कंपन्या आधारित आहेत, त्या देशांच्या सरकारांना सामायिक केली जावी, म्हणजेच गुगलच्या बाबतीत अमेरिकेला (U.S.) सामायिक केली जावी.
कंपन्यांनी हे देखील स्पष्ट केले आहे की, त्यांच्या एआय मॉडेल्सच्या (AI Models) धोक्यांचे मूल्यांकन करण्याच्या प्रक्रियेत सरकार, नागरी समाज, शिक्षणतज्ञ (Academics) आणि जनता यांसारख्या बाह्य घटकांचा (External actors) सहभाग कसा असेल. गुगलने Gemini 2.5 Pro यू.एस. (U.S.) किंवा यू.के. (U.K.) सरकार मूल्यांककांकडे सादर केले आहे की नाही याबद्दल थेट प्रश्नांची उत्तरे न देणे, या Commitment ( वचनाचे ) उल्लंघन करते.
पारदर्शकतेपेक्षा (Transparency)तैनातीला प्राधान्य
सुरक्षा अहवाल (Safety Report) उपलब्ध नसल्यामुळे, गुगल पारदर्शकता (Transparency) आणि संपूर्ण सुरक्षा मूल्यांकनापेक्षा (Safety assessments) जलद (Rapid) तैनातीला प्राधान्य देत आहे की काय, अशी चिंता वाढली आहे. ऑक्सफर्ड इंटरनेट इन्स्टिट्यूटमधील (Oxford Internet Institute) प्राध्यापक (Professor) आणि वरिष्ठ संशोधक (Senior researcher) सँड्रा वॉचटर (Sandra Wachter) यांनी जबाबदार संशोधन (Responsible research) आणि नवोपक्रमात (Innovation) पारदर्शकतेचे महत्त्व (Importance of transparency) सांगितले. त्यांनी इतर उद्योगांचे उदाहरण (Example) देत म्हटले की, “जर ही कार (Car) किंवा विमान (Aeroplane) असते, तर आपण असे म्हटले नसते की, चला हे शक्य तितके लवकर बाजारात आणू आणि आम्ही नंतर सुरक्षिततेच्या (Safety) पैलूंकडे लक्ष देऊ.” वॉचटर यांनी चिंता व्यक्त केली की, जनरेटिव्ह एआय (Generative AI) क्षेत्रात “हे बाहेर काढणे आणि चिंता करणे, तपास करणे आणि नंतर समस्यांचे निराकरण करणे” असा दृष्टिकोन (Approach) आहे.
राजकीय बदल आणि स्पर्धात्मक दबाव
अलीकडील राजकीय बदल (Political changes) आणि मोठ्या टेक कंपन्यांमधील (Big Tech companies) तीव्र स्पर्धेमुळे, कंपन्या एआय मॉडेल्स (AI models) तैनात (Deploy) करण्यासाठी धाव घेत असल्यामुळे, मागील सुरक्षा Commitments ( वचनांपासून ) दूर जाण्याची शक्यता आहे. वॉचटर (Wachter) यांनी नमूद केले की, “या कंपन्यांवर पूर्वीपेक्षा अधिक जलद, अधिक तत्पर, प्रथम, सर्वोत्तम आणि प्रभावी होण्याची Pressure ( दबाव ) आहे,” तसेच उद्योगात सुरक्षा मानके (Safety standards) घसरत आहेत.
तंत्रज्ञान देश (Technology country) आणि काही सरकारांमध्ये एआय सुरक्षा प्रक्रिया (AI safety procedures) नवोपक्रमात (Innovation) अडथळा आणत आहेत, अशी वाढती चिंता असल्यामुळे ही मानके घसरत (Slipping) चालली आहेत. अमेरिकेत (U.S.), ट्रम्प प्रशासनाने (Trump administration) बायडेन प्रशासनाच्या (Biden administration) तुलनेत एआय (AI) नियमांकडे (Regulation) कमी कठोर दृष्टीकोन (Less stringent approach) ठेवण्याचे संकेत दिले आहेत. नवीन प्रशासनाने (New administration) आधीच AI वरील बायडेन-युगातील कार्यकारी आदेश (Executive order) रद्द केला आहे आणि तंत्रज्ञान (Technology) क्षेत्रातील नेत्यांशी अधिक घनिष्ठ संबंध (Closer relationships) निर्माण केले आहेत. पॅरिसमधील (Paris) अलीकडील एआय शिखर बैठकीत (AI summit), अमेरिकेचे उपाध्यक्ष (U.S. Vice President) जेडी व्हान्स (JD Vance) म्हणाले की, “विकासाला (Growth) चालना देणाऱ्या एआय धोरणांना (AI policies) सुरक्षिततेपेक्षा प्राधान्य दिले पाहिजे आणि एआय (AI) ही एक संधी आहे जी ट्रम्प प्रशासन (Trump administration) वाया घालवणार नाही.”
त्याच शिखर बैठकीत, यूके (UK) आणि यूएस (US) या दोन्ही देशांनी कृत्रिम बुद्धिमत्तेवरील (Artificial intelligence) आंतरराष्ट्रीय करारावर (International agreement) स्वाक्षरी करण्यास नकार दिला, जो तंत्रज्ञानाच्या विकासासाठी “मुक्त” (Open), “समावेशक” (Inclusive) आणि “नैतिक” (Ethical) दृष्टिकोन (Approach) वाढवतो.
स्पष्ट पारदर्शकतेच्या आवश्यकतांची गरज
बँकस्टन (Bankston) यांनी यावर जोर दिला की, “नवीन मॉडेल्स (New models) जारी करताना या कंपन्या त्यांच्या सर्वात मूलभूत सुरक्षा (Basic safety) आणि पारदर्शकतेच्या (Transparency) Commitment ( वचनांचे ) पालन करतील यावर आपण विश्वास ठेवू शकत नाही - ज्या Commitment (वचनांचे ) त्यांनी स्वतःहून पालन करण्याचे ठरवले आहे - तर त्या क्षेत्रात वर्चस्व (Dominate) मिळवण्यासाठी त्या खूप लवकर मॉडेल्स (Models) जारी करत आहेत.” त्यांनी पुढे सांगितले की, एआय डेव्हलपर्स (AI developers) या Commitment ( वचनांमध्ये ) अयशस्वी ठरत आहेत, त्यामुळे कायदेतज्ज्ञांवर (Lawmakers) स्पष्ट पारदर्शकतेच्या (Transparency) आवश्यकता विकसित (Developed) करण्याची आणि त्यांची अंमलबजावणी (Enforce) करण्याची जबाबदारी असेल, ज्या कंपन्या टाळू शकत नाहीत.
एआय गव्हर्नन्ससाठी (AI Governance) व्यापक परिणाम
गुगलच्या (Google) Gemini 2.5 Pro आणि गहाळ सुरक्षा अहवालाशी (Safety report) संबंधित वादामुळे, मजबूत एआय गव्हर्नन्स फ्रेमवर्कची (AI governance frameworks) नितांत गरज अधोरेखित होते. या फ्रेमवर्कमध्ये (Framework) खालील प्रमुख समस्यांचे निराकरण केले पाहिजे:
- पारदर्शकता (Transparency): एआय डेव्हलपर्सनी (AI developers) त्यांच्या मॉडेल्सच्या (Models) क्षमता, मर्यादा आणि संभाव्य धोक्यांबद्दल पारदर्शक असणे सुनिश्चित करणे.
- उत्तरदायित्व (Accountability): एआय प्रणालींच्या (AI systems) विकास (Development) आणि तैनातीच्या (Deployment) स्पष्ट ओळी स्थापित (Establish) करणे.
- सुरक्षितता (Safety): हानीचा धोका कमी करण्यासाठी कठोर सुरक्षा चाचणी (Safety testing) आणि मूल्यांकन प्रक्रिया (Evaluation procedure) लागू करणे.
- नैतिक विचार (Ethical considerations): एआय प्रणालींच्या (AI systems) डिझाइन (Design) आणि विकासात (Development) नैतिक तत्त्वांचा (Ethical principles) समावेश करणे.
- सार्वजनिक सहभाग (Public engagement): एआय (AI) आणि त्याचे परिणाम (Implications) याबद्दल व्यापक (Broader) समजूतदारपणा (Understanding) वाढवण्यासाठी जनतेशी (Public) संवाद (Engage) साधणे.
- आंतरराष्ट्रीय सहकार्य (International cooperation): एआय गव्हर्नन्ससाठी (AI Governance) सामाईक मानके (Common standards) आणि सर्वोत्तम पद्धती (Best practices) विकसित (Developed) करण्यासाठी आंतरराष्ट्रीय स्तरावर सहकार्य (Collaborating) करणे.
Gemini 2.5 Pro संदर्भातील (Regarding) पारदर्शकतेचा (Transparency) अभाव (Lack) एआय गव्हर्नन्सच्या (AI Governance) या महत्त्वाच्या पैलूंकडे दुर्लक्ष (Neglect) केल्याने होणाऱ्या संभाव्य परिणामांवर प्रकाश टाकतो. पुरेशी पारदर्शकता (Adequate transparency) आणि उत्तरदायित्व (Accountability) नसल्यामुळे, एआय प्रणालींचा (AI systems) खरा (True) प्रभाव (Impact) मोजणे आणि ते जबाबदार (Responsible) आणि नैतिक (Ethical) पद्धतीने विकसित (Developed) आणि तैनात (Deployed) केले जातील याची खात्री करणे कठीण होते.
पुढे जाणे: अधिक जबाबदारीसाठी आवाहन
एआय उद्योग (AI industry) एका महत्त्वपूर्ण (Critical) टप्प्यावर आहे. एआय तंत्रज्ञान (AI technology) अधिकाधिक शक्तिशाली (Powerful) आणि सर्वव्यापी (Pervasive) होत असल्याने, डेव्हलपर्सनी (Developers) सुरक्षा (Safety), पारदर्शकता (Transparency) आणि नैतिक विचारांना (Ethical considerations) प्राधान्य देणे आवश्यक आहे. Gemini 2.5 Pro संबंधित वाद (Controversy) हे निदर्शनास (Reminder) आणून देतो की, केवळ ऐच्छिक Commitment (वचन) पुरेसे नाही. सरकारांनी (Governments) आणि नियामक मंडळांनी (Regulatory bodies) स्पष्ट मानके (Clear standards) स्थापित (Established) करण्यासाठी आणि त्यांचे पालन (Compliance) सुनिश्चित (Ensure) करण्यासाठी अधिक सक्रिय (Active) भूमिका (Role) बजावली पाहिजे.
शिवाय, एआय डेव्हलपर्सनी (AI developers) जनतेशी (Public) संवाद (Engage) साधणे आणि एआय (AI) आणि त्याचे परिणाम (Implications) याबद्दल अधिक व्यापक (Broader) समजूतदारपणा (Understanding) वाढवणे महत्त्वाचे आहे. यात एआय प्रणालींच्या (AI systems) मर्यादा (Limitations) आणि संभाव्य धोक्यांबद्दल (Potential risks) तसेच ते धोके कमी (Mitigate) करण्यासाठी उचलल्या जाणाऱ्या पावलांबद्दल पारदर्शक असणे समाविष्ट आहे. एकत्र काम करून, एआय उद्योग (AI industry), सरकारे (Governments) आणि जनता (Public) हे सुनिश्चित (Ensure) करू शकतात की, एआय तंत्रज्ञान (AI technology) अशा प्रकारे विकसित (Developed) आणि तैनात (Deployed) केले जातील जेणेकरून ते संपूर्ण समाजासाठी (Society) फायदेशीर (Beneficial) ठरतील.