GPT-4o ची व्हिज्युअल आघाडी: नविनता मुक्त, पण सुरक्षा टिकेल?

डिजिटल जग सतत नवनवीन शोधांमुळे ढवळून निघत आहे आणि ताज्या लाटा OpenAI च्या GPT-4o मॉडेलमधून, विशेषतः त्याच्या सुधारित इमेज निर्मिती क्षमतेमधून येत आहेत. वापरकर्ते स्वातंत्र्याच्या एका नवीन भावनेचा अनुभव घेत आहेत, जे पूर्वीच्या AI साधनांच्या अनेकदा मर्यादित असलेल्या सर्जनशील वातावरणापासून वेगळे आहे. तथापि, हा वाढता उत्साह एका परिचित चिंतेने ग्रासलेला आहे: अपरिहार्य नियंत्रणे येण्यापूर्वी ही उघड सवलतीची स्थिती किती काळ टिकू शकेल? कृत्रिम बुद्धिमत्तेच्या विकासाचा इतिहास विस्तार आणि त्यानंतरच्या नियंत्रणांच्या चक्रांनी भरलेला आहे, विशेषतः जिथे वापरकर्त्याने तयार केलेली सामग्री संभाव्य विवादास्पद क्षेत्रात प्रवेश करते.

परिचित नृत्य: AI प्रगती आणि सेन्सॉरशिपचे भूत

जनरेटिव्ह AI च्या जलद उत्क्रांतीमध्ये हे एक आवर्ती सूत्र असल्यासारखे वाटते. एक अभूतपूर्व साधन उदयास येते, जे वापरकर्त्यांना त्याच्या क्षमतेने चकित करते. विविध AI चॅटबॉट्स आणि इमेज क्रिएटर्सच्या सुरुवातीच्या अनावरणांचा विचार करा. सुरुवातीला जवळजवळ अनिर्बंध शोधाचा काळ असतो, जिथे डिजिटल कॅनव्हास अमर्याद वाटतो. वापरकर्ते मर्यादा ओलांडतात, प्रयोग करतात, तयार करतात आणि कधीकधी, धोक्याची घंटा वाजवणाऱ्या क्षेत्रांमध्ये अडखळतात.

हा शोध टप्पा, तंत्रज्ञानाची खरी क्षमता आणि मर्यादा समजून घेण्यासाठी महत्त्वाचा असला तरी, अनेकदा सामाजिक नियम, नैतिक विचार आणि कायदेशीर चौकटींशी टक्कर घेतो. गेल्या वर्षी xAI च्या Grok च्या उदयाने हे स्पष्टपणे दिसून आले. त्याचे प्रमुख संस्थापक Elon Musk यांच्यासह समर्थकांनी AI चॅटबॉट क्षेत्रात कमी फिल्टर केलेला, अधिक ‘आधारित’ पर्याय म्हणून त्याचे स्वागत केले, Grok ने लवकरच लक्ष वेधून घेतले. त्याचे आकर्षण अंशतः जड सामग्री नियंत्रणामुळे AI मॉडेल्सवर लादल्या जाणाऱ्या कथित ‘बौद्धिक खच्चीकरणा’ला (lobotomization) प्रतिकार करण्याच्या क्षमतेमध्ये होते, ज्यामुळे अधिक विनोदी किंवा अपारंपरिक, जरी कधीकधी विवादास्पद, प्रतिसादांना परवानगी मिळाली. Musk यांनी स्वतः Grok ला ‘सर्वात मजेदार AI’ म्हणून प्रोत्साहन दिले, त्याच्या विशाल डेटासेटवरील प्रशिक्षणावर प्रकाश टाकला, ज्यात संभाव्यतः X (पूर्वीचे Twitter) च्या विस्तृत, अनेकदा अव्यवस्थित सामग्री क्षेत्राचा समावेश होता.

तथापि, हाच दृष्टिकोन मध्यवर्ती तणाव अधोरेखित करतो. फिल्टर न केलेल्या AI ची इच्छा गैरवापराच्या संभाव्यतेशी थेट संघर्ष करते. ज्या क्षणी AI-निर्मित सामग्री, विशेषतः प्रतिमा, मर्यादा ओलांडतात - जसे की सेलिब्रिटींसह वास्तविक लोकांचे स्पष्ट, गैर-संमतीने चित्रण तयार करणे - तेव्हा प्रतिक्रिया जलद आणि तीव्र असते. प्रतिष्ठेच्या नुकसानीची शक्यता, महत्त्वपूर्ण कायदेशीर आव्हानांच्या धोक्यासह, विकासकांना कठोर नियंत्रणे लागू करण्यास भाग पाडते. नियंत्रणाची ही प्रतिक्रियात्मक कडकपणा काही वापरकर्त्यांना सर्जनशीलतेला दडपशाही करणारी वाटते, शक्तिशाली साधनांना निराशाजनकपणे मर्यादित साधनांमध्ये रूपांतरित करते. अनेकांना पूर्वीच्या इमेज जनरेटर्स, जसे की Microsoft चे Image Creator किंवा OpenAI च्या स्वतःच्या DALL-E च्या पूर्वीच्या आवृत्त्यांसह आलेल्या अडचणी आठवतात, जिथे साध्या पांढऱ्या पार्श्वभूमीसारख्या किंवा वाइनच्या पूर्ण ग्लाससारख्या निरुपद्रवी प्रतिमा तयार करणे देखील अपारदर्शक सामग्री फिल्टरमधून मार्ग काढण्याचा व्यायाम बनू शकत होते.

GPT-4o बद्दलच्या सध्याच्या चर्चेला समजून घेण्यासाठी हा ऐतिहासिक संदर्भ महत्त्वाचा आहे. धारणा अशी आहे की OpenAI ने, कदाचित भूतकाळातील अनुभवांतून शिकून किंवा स्पर्धात्मक दबावांना प्रतिसाद म्हणून, किमान सध्यासाठी तरी नियंत्रणे शिथिल केली आहेत.

GPT-4o ची प्रतिमा निर्मिती: ताजी हवा, की तात्पुरता दिलासा?

सोशल मीडियावर पसरलेले किस्से एका इमेज निर्मिती साधनाचे चित्र रंगवतात जे त्याच्या पूर्ववर्ती किंवा सध्याच्या स्पर्धकांच्या तुलनेत लक्षणीयरीत्या कमी निर्बंधांसह कार्यरत आहे. ChatGPT शी संवाद साधणारे वापरकर्ते, जे आता इमेज कार्यांसाठी GPT-4o मॉडेलद्वारे सुपरचार्ज केलेले असू शकतात, अशा निर्मिती शेअर करत आहेत ज्यात केवळ उल्लेखनीय वास्तववादच नाही तर अशा विषय आणि परिस्थितींचे चित्रण करण्याची इच्छा देखील दिसून येते ज्यांना इतर प्लॅटफॉर्म स्वयंचलितपणे ब्लॉक करू शकतात.

या धारणेला चालना देणारे मुख्य पैलू:

  • सुधारित वास्तववाद: अधिक प्रगत GPT-4o द्वारे समर्थित, हे साधन फोटोग्राफिक वास्तव आणि डिजिटल बनावट यांच्यातील रेषा अभूतपूर्व प्रमाणात अस्पष्ट करणाऱ्या प्रतिमा तयार करण्यास सक्षम असल्याचे दिसते. तपशील, प्रकाशयोजना आणि रचना अनेकदा आश्चर्यकारकपणे अचूक दिसतात.
  • अधिक प्रॉम्प्ट लवचिकता: वापरकर्ते अशा प्रॉम्प्टसह यश नोंदवतात जे इतर सिस्टीमद्वारे फ्लॅग केले गेले असते किंवा नाकारले गेले असते. यामध्ये विशिष्ट वस्तू, सूक्ष्म परिस्थिती किंवा सार्वजनिक व्यक्तींचे प्रतिनिधित्व असलेल्या प्रतिमा तयार करणे समाविष्ट आहे, जरी काही मर्यादांच्या आत ज्या अजूनही वापरकर्ता समुदायाद्वारे शोधल्या जात आहेत.
  • एकात्मिक अनुभव: थेट ChatGPT इंटरफेसमध्ये प्रतिमा तयार करण्याची आणि संभाव्यतः विद्यमान प्रतिमांवर पुनरावृत्ती करण्याची क्षमता, वेगळ्या प्लॅटफॉर्म्समध्ये जुळवाजुळव करण्याच्या तुलनेत अधिक प्रवाही आणि अंतर्ज्ञानी सर्जनशील प्रक्रिया प्रदान करते.

ही जाणवलेली मोकळीक एक महत्त्वपूर्ण बदल आहे. जिथे पूर्वी वापरकर्त्यांना अगदी सामान्य दृश्ये तयार करण्यासाठी फिल्टरशी संघर्ष करावा लागला असता, तिथे GPT-4o त्याच्या सध्याच्या आवृत्तीत अधिक परवानगी देणारे दिसते. सोशल मीडिया थ्रेड्समध्ये विविध प्रकारच्या तयार केलेल्या प्रतिमा दर्शविल्या जातात, आश्चर्यकारकपणे सुंदर ते सर्जनशीलपणे विचित्र पर्यंत, अनेकदा अशा प्रॉम्प्ट्सचे पालन करण्याबद्दल आश्चर्य व्यक्त करणाऱ्या टिप्पण्यांसह ज्या वापरकर्त्यांना नाकारल्या जाण्याची अपेक्षा होती. या AI निर्मितींना अस्सल छायाचित्रांपासून वेगळे ओळखण्यात येणारी अडचण वारंवार नमूद केली जाते, जी मॉडेलच्या अत्याधुनिकतेवर प्रकाश टाकते.

तरीही, अनुभवी निरीक्षक आणि AI संशयवादी सावधगिरीचा इशारा देतात. हा जाणवलेला ‘अनियंत्रित’ (unhinged) स्वभाव, ते युक्तिवाद करतात, बहुधा क्षणिक आहे. जी शक्ती या साधनाला इतकी आकर्षक बनवते, तीच त्याला संभाव्यतः धोकादायक देखील बनवते. इमेज निर्मिती तंत्रज्ञान एक शक्तिशाली साधन आहे; ते शिक्षण, कला, डिझाइन आणि मनोरंजनासाठी वापरले जाऊ शकते, परंतु ते तितकेच खात्रीशीर चुकीची माहिती तयार करण्यासाठी, हानिकारक रूढींचा प्रसार करण्यासाठी, गैर-संमतीने सामग्री तयार करण्यासाठी किंवा राजकीय प्रचाराला चालना देण्यासाठी शस्त्र म्हणून वापरले जाऊ शकते. साधन जितके अधिक वास्तववादी आणि अनिर्बंध असेल, तितका धोका जास्त होतो.

अपरिहार्य संघर्ष मार्ग: नियमन, जबाबदारी आणि धोका

शक्तिशाली तंत्रज्ञानाचा मार्ग अनेकदा त्यांना छाननी आणि नियमनाकडे घेऊन जातो आणि जनरेटिव्ह AI त्याला अपवाद नाही. Grok चे प्रकरण एक समर्पक, जरी वेगळे, उदाहरण म्हणून काम करते. त्याच्या सामग्री तत्त्वज्ञानाच्या पलीकडे, xAI ला त्याच्या डेटा सोर्सिंग पद्धतींबाबत महत्त्वपूर्ण छाननीचा सामना करावा लागला. आरोप झाले की Grok ला X प्लॅटफॉर्म डेटावर स्पष्ट वापरकर्ता संमतीशिवाय प्रशिक्षित केले गेले, संभाव्यतः GDPR सारख्या डेटा गोपनीयता नियमांचे उल्लंघन केले. या परिस्थितीने AI कंपन्यांना सामोरे जावे लागणाऱ्या भरीव कायदेशीर आणि आर्थिक जोखमींवर प्रकाश टाकला, संभाव्य दंड जागतिक वार्षिक उलाढालीच्या टक्केवारीपर्यंत पोहोचू शकतो. डेटा वापर आणि मॉडेल प्रशिक्षणासाठी स्पष्ट कायदेशीर आधार स्थापित करणे अत्यंत महत्त्वाचे आहे आणि अपयश महाग ठरू शकते.

GPT-4o ची सध्याची परिस्थिती प्रामुख्याने सामग्री निर्मितीभोवती फिरत असली तरी, डेटा सोर्सिंग विवादांऐवजी, जोखीम व्यवस्थापनाचे मूळ तत्त्व समान आहे. वापरकर्त्यांद्वारे उत्साही शोध, इमेज जनरेटर काय तयार करेल याच्या मर्यादा ओलांडणे, अपरिहार्यपणे अशी उदाहरणे तयार करते जी नकारात्मक लक्ष वेधून घेऊ शकतात. Microsoft च्या Copilot सारख्या स्पर्धकांशी तुलना आधीच केली जात आहे, वापरकर्त्यांना अनेकदा ChatGPT चे GPT-4o समर्थित साधन त्याच्या सध्याच्या स्थितीत कमी प्रतिबंधात्मक असल्याचे आढळते.

तथापि, या सापेक्ष स्वातंत्र्यासोबत वापरकर्त्याची चिंता आहे. अनेकजण जे साधनाच्या क्षमतेचा आनंद घेत आहेत ते उघडपणे अंदाज लावतात की हा टप्पा टिकणार नाही. ते भविष्यातील अपडेटची अपेक्षा करतात जिथे डिजिटल सुरक्षा उपाय (guardrails) लक्षणीयरीत्या वाढवले जातील, ज्यामुळे साधन अधिक पुराणमतवादी उद्योग मानकांशी जुळवून घेईल.

OpenAI चे नेतृत्व या नाजूक संतुलनाबद्दल तीव्रपणे जागरूक असल्याचे दिसते. CEO Sam Altman यांनी या नवीन क्षमतांशी संबंधित अनावरणादरम्यान तंत्रज्ञानाच्या दुहेरी स्वरूपाची कबुली दिली. त्यांच्या टिप्पण्यांनी असे साधन तयार करण्याचे उद्दिष्ट सुचवले जे डीफॉल्टनुसार आक्षेपार्ह सामग्री तयार करणे टाळेल परंतु वापरकर्त्यांना ‘वाजवी मर्यादेत’ हेतुपुरस्सर सर्जनशील स्वातंत्र्य देईल. त्यांनी ‘बौद्धिक स्वातंत्र्य आणि नियंत्रण वापरकर्त्यांच्या हाती’ ठेवण्याचे तत्त्वज्ञान मांडले परंतु महत्त्वाचे म्हणजे एक अट जोडली: ‘आम्ही ते कसे चालते ते पाहू आणि समाजाचे ऐकू.’

हे विधान एका तारेवरची कसरत आहे. ‘आक्षेपार्ह’ काय आहे? ‘वाजवी मर्यादेत’ कोण परिभाषित करते? OpenAI वापराचे ‘निरीक्षण’ कसे करेल आणि सामाजिक अभिप्रायाला ठोस धोरण समायोजनांमध्ये कसे रूपांतरित करेल? हे साधे तांत्रिक प्रश्न नाहीत; ते अत्यंत गुंतागुंतीचे नैतिक आणि कार्यान्वयन आव्हान आहेत. याचा अर्थ स्पष्ट आहे: सध्याची स्थिती तात्पुरती आहे, वापराच्या पद्धती आणि सार्वजनिक प्रतिक्रियेनुसार बदलू शकते.

सेलिब्रिटी माइनफील्ड आणि स्पर्धात्मक दबाव

एक विशिष्ट क्षेत्र जिथे GPT-4o ची जाणवलेली सवलत लक्ष वेधून घेत आहे ते म्हणजे सेलिब्रिटी आणि सार्वजनिक व्यक्तींचा समावेश असलेल्या प्रॉम्प्ट्स हाताळणे. काही वापरकर्त्यांनी नोंदवले आहे, Grok च्या अनेकदा उद्धट भूमिकेशी तुलना करता, की GPT-4o सेलिब्रिटींशी संबंधित प्रतिमा तयार करण्यास सांगितले असता, विशेषतः विनोदी किंवा व्यंग्यात्मक हेतूंसाठी (memes), सरळ नकार देण्यास कमी प्रवृत्त दिसते. काही वापरकर्त्यांमधील एक प्रचलित सिद्धांत, जसा ऑनलाइन चर्चेत दिसून येतो, तो असा आहे की OpenAI प्रभावीपणे स्पर्धा करण्यासाठी येथे अधिक मोकळीक देत असावे. युक्तिवाद असा आहे की Grok ची अशा संवेदनशीलतेकडे जाणवलेली उदासीनता त्याला वापरकर्ता प्रतिबद्धतेमध्ये, विशेषतः meme संस्कृतीत उत्सुक असलेल्यांमध्ये, एक धार देते आणि OpenAI हे क्षेत्र पूर्णपणे सोडून देण्यास तयार नसावे.

तथापि, ही एक अत्यंत उच्च-जोखमीची रणनीती आहे. एखाद्या व्यक्तीच्या प्रतिमेच्या वापराभोवतीची कायदेशीर चौकट गुंतागुंतीची आहे आणि अधिकारक्षेत्रानुसार बदलते. सेलिब्रिटींच्या प्रतिमा तयार करणे, विशेषतः जर त्या हाताळल्या गेल्या असतील, चुकीच्या संदर्भात ठेवल्या गेल्या असतील किंवा परवानगीशिवाय व्यावसायिकरित्या वापरल्या गेल्या असतील, तर संभाव्य कायदेशीर कारवाईच्या मालिकेला दार उघडते:

  • मानहानी (Defamation): जर तयार केलेली प्रतिमा व्यक्तीच्या प्रतिष्ठेला हानी पोहोचवत असेल.
  • प्रसिद्धीचा अधिकार (Right of Publicity): संमतीशिवाय व्यावसायिक फायद्यासाठी किंवा वापरकर्ता प्रतिबद्धतेसाठी एखाद्या व्यक्तीचे नाव किंवा प्रतिमेचा गैरवापर करणे.
  • चुकीच्या प्रकाशात आणून गोपनीयतेचे उल्लंघन (False Light Invasion of Privacy): एखाद्याला अशा प्रकारे चित्रित करणे जे सामान्य व्यक्तीसाठी अत्यंत आक्षेपार्ह असेल.
  • कॉपीराइट समस्या (Copyright Issues): जर तयार केलेल्या प्रतिमेत सेलिब्रिटीशी संबंधित कॉपीराइट केलेले घटक समाविष्ट असतील.

जरी meme संस्कृती रिमिक्सिंग आणि विडंबनावर भरभराट करत असली तरी, संभाव्य फोटोरिअलिस्टिक चित्रणांचे मोठ्या प्रमाणावर स्वयंचलित निर्मिती एक नवीन कायदेशीर आव्हान सादर करते. एकच व्हायरल, हानिकारक किंवा अनधिकृत प्रतिमा OpenAI साठी महाग खटले आणि महत्त्वपूर्ण ब्रँड नुकसानीला कारणीभूत ठरू शकते. अशा दाव्यांविरुद्ध बचाव करण्यासाठी संबंधित संभाव्य कायदेशीर शुल्क आणि समझोते, विशेषतः भरीव संसाधने असलेल्या उच्च-प्रोफाइल व्यक्तींकडून, प्रचंड असू शकतात.

म्हणून, या क्षेत्रातील कोणतीही जाणवलेली सवलत OpenAI मध्ये तीव्र अंतर्गत छाननीखाली असण्याची शक्यता आहे. वापरकर्ता प्रतिबद्धता आणि स्पर्धात्मक समानतेच्या इच्छेला कायदेशीर गुंतागुंतीच्या विनाशकारी संभाव्यतेविरुद्ध संतुलित करणे हे एक मोठे आव्हान आहे. असे दिसते की वास्तविक व्यक्तींच्या, विशेषतः सार्वजनिक व्यक्तींच्या चित्रणासंबंधी कठोर नियंत्रणे, वापराच्या पद्धतींनी महत्त्वपूर्ण धोका दर्शविल्यास, कडक केल्या जाणाऱ्या पहिल्या क्षेत्रांपैकी असतील. प्रश्न हा नाही की OpenAI ला त्याच्या इमेज निर्मितीशी संबंधित कायदेशीर आव्हानांचा सामना करावा लागेल की नाही, तर कधी आणि कसे ते त्यासाठी तयारी करते आणि मार्गक्रमण करते.

अज्ञात पाण्यातून मार्गक्रमण

GPT-4o च्या इमेज निर्मितीसह सध्याचा क्षण व्यापक AI क्रांतीचा एक सूक्ष्म रूप वाटतो: प्रचंड क्षमतेसह गहन अनिश्चितता. तंत्रज्ञान सर्जनशील सक्षमीकरणाची मोहक झलक देते, वापरकर्त्यांना अभूतपूर्व सहजतेने आणि वास्तववादाने कल्पनांचे व्हिज्युअलायझेशन करण्यास अनुमती देते. तरीही, ही शक्ती मूळतः तटस्थ आहे; तिचा अनुप्रयोग तिचा प्रभाव ठरवतो.

OpenAI स्वतःला एका परिचित स्थितीत शोधते, संबंधित धोके व्यवस्थापित करताना नवनिर्मितीला चालना देण्याचा प्रयत्न करत आहे. रणनीती नियंत्रित प्रकाशन, निरीक्षण आणि पुनरावृत्ती समायोजनाची असल्याचे दिसते. वापरकर्त्यांना सध्या जाणवणारी ‘सवलत’ वापराच्या पद्धतींवरील डेटा गोळा करण्यासाठी, संभाव्य एज केसेस ओळखण्यासाठी आणि अधिक कायमस्वरूपी, संभाव्यतः कठोर, धोरणे लागू करण्यापूर्वी वापरकर्त्यांची मागणी समजून घेण्यासाठी एक हेतुपुरस्सर निवड असू शकते. हे वेगाने विकसित होत असलेल्या बाजारात स्पर्धात्मकता टिकवून ठेवण्यासाठी एक धोरणात्मक पाऊल देखील असू शकते जिथे प्रतिस्पर्धी सामग्री नियंत्रणासाठी भिन्न दृष्टिकोन स्वीकारत आहेत.

पुढील मार्गात अनेक गुंतागुंतीच्या घटकांमधून मार्गक्रमण करणे समाविष्ट आहे:

  1. तांत्रिक सुधारणा: मॉडेलची सूक्ष्मता आणि संदर्भ समजून घेण्याची क्षमता सतत सुधारणे, ज्यामुळे अधिक अत्याधुनिक सामग्री फिल्टरिंग शक्य होईल जे हानिकारक सामग्रीला अवरोधित करेल आणि निरुपद्रवी सर्जनशील अभिव्यक्तीला अनावश्यकपणे प्रतिबंधित करणार नाही.
  2. धोरण विकास: स्पष्ट, अंमलबजावणीयोग्य वापर धोरणे तयार करणे जी उदयोन्मुख धोके आणि सामाजिक अपेक्षांशी जुळवून घेतील. यामध्ये ‘आक्षेपार्ह’ आणि ‘वाजवी मर्यादेत’ सारख्या संदिग्ध संज्ञा परिभाषित करणे समाविष्ट आहे.
  3. वापरकर्ता शिक्षण: मर्यादा आणि जबाबदार वापर मार्गदर्शक तत्त्वे वापरकर्ता समुदायापर्यंत प्रभावीपणे पोहोचवणे.
  4. नियामक अनुपालन: धोरणकर्त्यांशी सक्रियपणे संवाद साधणे आणि जगभरातील AI प्रशासनाच्या विकसित होत असलेल्या लँडस्केपशी जुळवून घेणे. भविष्यातील नियमांचा अंदाज घेणे दीर्घकालीन व्यवहार्यतेसाठी महत्त्वाचे आहे.
  5. जोखीम व्यवस्थापन: वापराचे निरीक्षण करणे, गैरवापर शोधणे आणि घटनांना त्वरीत प्रतिसाद देण्यासाठी मजबूत अंतर्गत प्रक्रिया लागू करणे, तसेच अपरिहार्य कायदेशीर आणि नैतिक आव्हानांसाठी तयारी करणे.

GPT-4o च्या इमेज निर्मितीभोवतीचा उत्साह समजण्यासारखा आहे. हे सुलभ सर्जनशील तंत्रज्ञानातील एक महत्त्वपूर्ण झेप दर्शवते. तथापि, हा तुलनेने अनिर्बंध टप्पा अनिश्चित काळासाठी टिकेल हा विश्वास आशावादी वाटतो. संभाव्य गैरवापर, कायदेशीर दायित्व, नियामक छाननी आणि सार्वजनिक विश्वास टिकवून ठेवण्याची गरज यांचे दबाव OpenAI ला, त्याच्या पूर्ववर्ती आणि स्पर्धकांप्रमाणेच, हळूहळू अधिक मजबूत सुरक्षा उपाय (guardrails) सादर करण्यास भाग पाडतील. आव्हान एका शाश्वत संतुलनात आहे - जे तंत्रज्ञानाची नाविन्यपूर्ण ठिणगी टिकवून ठेवेल आणि त्याच्या निर्विवाद शक्तीचे जबाबदारीने व्यवस्थापन करेल. OpenAI या गुंतागुंतीच्या संतुलनातून कसे मार्गक्रमण करते हे पाहण्यासाठी येणारे महिने महत्त्वपूर्ण असतील.