वाढणारे वादळ: AI युगातील कॉपीराइट
कृत्रिम बुद्धिमत्तेचे (Artificial Intelligence - AI) जग, विशेषतः OpenAI सारख्या उद्योगातील दिग्गजांनी विकसित केलेले अत्याधुनिक लार्ज लँग्वेज मॉडेल्स (LLMs), वाढत्या कायदेशीर आणि नैतिक वादळाचा सामना करत आहेत. या वादळाच्या केंद्रस्थानी एक मूलभूत प्रश्न आहे: या शक्तिशाली मशीन्सना कोणती माहिती (डेटा) पुरवली जाते आणि या प्रक्रियेत निर्मात्यांच्या अधिकारांचा आदर केला गेला का? असे आरोप वाढत आहेत की मोठ्या प्रमाणात कॉपीराइटेड साहित्य – कादंबऱ्या, लेख, कोड आणि बरेच काही – या मॉडेल्सनी त्यांच्या प्रशिक्षणाच्या टप्प्यात आवश्यक परवानग्या किंवा मोबदला न देता वापरले असावे. हा केवळ एक शैक्षणिक वाद नाही; तो वेगाने उच्च-स्तरीय खटल्यांमध्ये रूपांतरित होत आहे.
OpenAI लेखक, प्रोग्रामर आणि विविध हक्क-धारकांनी सुरू केलेल्या कायदेशीर लढाईत अधिकाधिक गुंतत चालले आहे. या फिर्यादींचा दावा आहे की त्यांच्या बौद्धिक संपदेचा वापर AI मॉडेल्स तयार करण्यासाठी अयोग्यरित्या केला गेला, जे मॉडेल्स आज बातम्यांमध्ये आहेत आणि उद्योग बदलत आहेत. त्यांचा युक्तिवाद यावर आधारित आहे की सध्याचा कॉपीराइट कायदा व्यावसायिक AI प्रणालींसाठी प्रशिक्षण सामग्री म्हणून संरक्षित कामांचा मोठ्या प्रमाणावर वापर करण्याची स्पष्ट परवानगी देत नाही. OpenAI ने याला प्रतिसाद म्हणून सातत्याने ‘फेअर यूज’ (fair use) सिद्धांताचा आधार घेतला आहे, जो एक जटिल कायदेशीर तत्त्व आहे आणि विशिष्ट परिस्थितीत परवानगीशिवाय कॉपीराइट केलेल्या सामग्रीचा मर्यादित वापर करण्यास परवानगी देतो. तथापि, AI प्रशिक्षणाच्या अभूतपूर्व प्रमाणावर आणि स्वरूपावर ‘फेअर यूज’ची लागूता हा एक तीव्रपणे विवादित आणि अस्पष्ट क्षेत्र आहे, ज्यामुळे महत्त्वपूर्ण कायदेशीर उदाहरणे स्थापित होण्याची शक्यता आहे. मुख्य तणाव याभोवती फिरतो की कॉपीराइट केलेल्या कामांना मॉडेलमधील सांख्यिकीय नमुन्यांमध्ये रूपांतरित करणे हे ‘परिवर्तनात्मक वापर’ (transformative use) आहे – जे ‘फेअर यूज’चे मुख्य तत्व आहे – की केवळ मोठ्या प्रमाणावर अनधिकृत पुनरुत्पादन आहे. या खटल्यांचा निकाल AI विकासाच्या भविष्यातील दिशेवर गंभीरपणे परिणाम करू शकतो, संभाव्यतः मॉडेल निर्मात्यांवर महत्त्वपूर्ण मर्यादा किंवा खर्च लादू शकतो.
ब्लॅक बॉक्समध्ये डोकावणे: पाठांतर ओळखण्याची नवीन पद्धत
या ज्वलंत चर्चेला आणखी खतपाणी घालणारा एक अलीकडील अभ्यास आहे, जो युनिव्हर्सिटी ऑफ वॉशिंग्टन (University of Washington), कोपनहेगन विद्यापीठ (University of Copenhagen) आणि स्टॅनफोर्ड विद्यापीठ (Stanford University) यांसारख्या प्रमुख संस्थांमधील संशोधकांच्या सहयोगी टीमने केला आहे. त्यांच्या कार्याने एक नाविन्यपूर्ण तंत्र सादर केले आहे, जे विशेषतः अशा घटना शोधण्यासाठी डिझाइन केले आहे जिथे AI मॉडेल्स, अगदी OpenAI च्या प्रतिबंधित ऍप्लिकेशन प्रोग्रामिंग इंटरफेस (APIs) द्वारे ऍक्सेस केलेले मॉडेल्ससुद्धा, त्यांच्या प्रशिक्षण डेटाचे विशिष्ट भाग ‘पाठ’ (memorized) केलेले दिसतात. हे एक महत्त्वपूर्ण यश आहे कारण GPT-4 सारख्या व्यावसायिक मॉडेल्सच्या अंतर्गत कार्यामध्ये किंवा त्यांच्या अचूक प्रशिक्षण डेटामध्ये प्रवेश करणे बाह्य तपासकर्त्यांसाठी सामान्यतः अशक्य असते.
हे मॉडेल्स कसे कार्य करतात हे समजून घेणे या अभ्यासाचे महत्त्व समजून घेण्यासाठी महत्त्वाचे आहे. त्यांच्या मूळ स्वरूपात, LLMs अत्यंत अत्याधुनिक भविष्यवाणी इंजिन आहेत. त्यांना खऱ्या अर्थाने प्रचंड प्रमाणात मजकूर आणि कोडवर प्रशिक्षित केले जाते, ज्यामुळे ते शब्द, वाक्ये आणि संकल्पनांमधील गुंतागुंतीचे सांख्यिकीय संबंध शिकतात. ही शिकण्याची प्रक्रिया त्यांना सुसंगत मजकूर तयार करण्यास, भाषांतर करण्यास, विविध प्रकारचे सर्जनशील साहित्य लिहिण्यास आणि माहितीपूर्ण पद्धतीने प्रश्नांची उत्तरे देण्यास सक्षम करते. जरी मॉडेलने माहिती शब्दशः संग्रहित करण्याऐवजी नमुन्यांचे सामान्यीकरण करावे हे ध्येय असले तरी, प्रशिक्षण डेटाच्या प्रचंड प्रमाणामुळे काही प्रमाणात पाठांतर जवळजवळ अपरिहार्य होते. याची कल्पना एखाद्या विद्यार्थ्यासारखी करा जो असंख्य पाठ्यपुस्तके अभ्यासतो; जरी त्याचा उद्देश संकल्पना समजून घेणे असला तरी, तो अनवधानाने विशिष्ट वाक्ये किंवा व्याख्या पाठ करू शकतो, विशेषतः जी वैशिष्ट्यपूर्ण आहेत. पूर्वीच्या निरीक्षणांमध्ये असे दिसून आले आहे की इमेज जनरेशन मॉडेल्स त्यांनी ज्या चित्रपटांवर प्रशिक्षण घेतले होते त्यातील ओळखण्यायोग्य घटक पुनरुत्पादित करतात आणि लँग्वेज मॉडेल्स बातम्यांच्या लेखांसारख्या स्त्रोतांकडून घेतलेल्या मजकुरासारखा किंवा थेट कॉपी केलेला मजकूर तयार करतात. या घटनेमुळे साहित्यिक चोरी आणि AI-व्युत्पन्न सामग्रीच्या खऱ्या मौलिकतेबद्दल गंभीर चिंता निर्माण होतात.
संशोधकांनी प्रस्तावित केलेली पद्धत चतुर आणि माहितीपूर्ण दोन्ही आहे. ती त्यांनी ‘हाय-सरप्राइझल’ (high-surprisal) शब्द म्हणून ओळखल्या जाणाऱ्या शब्दांवर केंद्रित आहे. हे असे शब्द आहेत जे वाक्याच्या किंवा परिच्छेदाच्या विशिष्ट संदर्भात सांख्यिकीयदृष्ट्या असामान्य किंवा अनपेक्षित वाटतात. उदाहरणार्थ, ‘प्राचीन खलाशी सेक्सटंट (sextant) च्या अंधुक प्रकाशाने मार्गक्रमण करत होता’ (The ancient mariner navigated by the faint glow of the sextant.) या वाक्याचा विचार करा. ‘सेक्सटंट’ हा शब्द हाय-सरप्राइझल मानला जाऊ शकतो कारण सामान्य मजकूर संग्रहात, ‘तारे’, ‘चंद्र’ किंवा ‘होकायंत्र’ यांसारखे शब्द त्या संदर्भात सांख्यिकीयदृष्ट्या अधिक संभाव्य असू शकतात. संशोधकांनी अशी परिकल्पना केली की जर एखाद्या मॉडेलने प्रशिक्षणादरम्यान विशिष्ट मजकूर परिच्छेद खरोखरच पाठ केला असेल, तर त्या परिच्छेदातून हे अद्वितीय, हाय-सरप्राइझल शब्द काढून टाकल्यास ते त्यांचे अंदाज लावण्यात अपवादात्मकरित्या चांगले असेल.
या परिकल्पनेची चाचणी घेण्यासाठी, संशोधन टीमने OpenAI च्या अनेक प्रमुख मॉडेल्सची, ज्यात शक्तिशाली GPT-4 आणि त्याचा पूर्ववर्ती GPT-3.5 यांचा समावेश आहे, पद्धतशीरपणे तपासणी केली. त्यांनी लोकप्रिय काल्पनिक कादंबऱ्या आणि ‘द न्यूयॉर्क टाइम्स’ (The New York Times) मधील लेखांसारख्या ज्ञात स्त्रोतांकडून मजकुराचे तुकडे घेतले. महत्त्वाचे म्हणजे, त्यांनी या तुकड्यांमधील ओळखलेले हाय-सरप्राइझल शब्द मास्क केले किंवा काढून टाकले. त्यानंतर मॉडेल्सना रिकाम्या जागा भरण्यास सांगितले गेले – मूलतः, गहाळ, सांख्यिकीयदृष्ट्या असंभाव्य शब्दांचा ‘अंदाज’ लावण्यास सांगितले गेले. अभ्यासाचा मूळ तर्क आकर्षक आहे: जर एखादे मॉडेल सातत्याने आणि अचूकपणे या हाय-सरप्राइझल शब्दांचा अंदाज लावत असेल, तर ते जोरदारपणे सूचित करते की मॉडेलने केवळ सामान्य भाषेचे नमुने शिकले नाहीत तर प्रत्यक्षात त्याच्या प्रशिक्षण डेटामधून त्या अचूक मजकूर क्रमाची विशिष्ट स्मृती जपली आहे. केवळ यादृच्छिक संधी किंवा सामान्य भाषा समजून घेणे विशिष्ट संदर्भांमध्ये असामान्य शब्दांसाठी इतके अचूक अंदाज लावण्याची शक्यता कमी असते.
निष्कर्ष: AI आउटपुटमध्ये कॉपीराइटेड मजकुराचे प्रतिध्वनी
या सूक्ष्म चाचण्यांमधून मिळालेले परिणाम कॉपीराइट उल्लंघनाच्या दाव्यांना पुष्टी देणारे आकर्षक, जरी प्राथमिक असले तरी, पुरावे प्रदान करतात. अभ्यासाच्या प्रकाशित निष्कर्षांनुसार, GPT-4, संशोधनाच्या वेळी OpenAI चे सर्वात प्रगत सार्वजनिकरित्या उपलब्ध मॉडेल, लोकप्रिय काल्पनिक पुस्तकांचे शब्दशः भाग पाठ केल्याची महत्त्वपूर्ण चिन्हे दर्शविली. यामध्ये BookMIA नावाच्या विशिष्ट डेटामध्ये आढळलेल्या मजकुराचा समावेश होता, ज्यात कॉपीराइट केलेल्या इलेक्ट्रॉनिक पुस्तकांमधून काढलेले नमुने आहेत – हा डेटासेट संभाव्य उल्लंघन करणाऱ्या प्रशिक्षण स्त्रोतांबद्दलच्या चर्चेत अनेकदा गुंतलेला असतो. मॉडेल केवळ सामान्य विषय किंवा शैली आठवत नव्हते; ते त्या अद्वितीय, हाय-सरप्राइझल शब्दांसह मजकूर क्रम अचूकपणे पुनर्रचना करत होते, जे साध्या नमुना सामान्यीकरणापेक्षा स्मृती टिकवून ठेवण्याच्या खोल पातळीचे संकेत देते.
शिवाय, तपासात असे दिसून आले की GPT-4 ने ‘न्यूयॉर्क टाइम्स’ (New York Times) लेखांचे भाग पाठ केल्याचे पुरावे देखील दर्शविले. तथापि, संशोधकांनी नमूद केले की बातम्यांच्या लेखांसाठी स्पष्ट पाठांतराचा दर काल्पनिक पुस्तकांसाठी आढळलेल्या दरापेक्षा तुलनेने कमी होता. हा फरक संभाव्यतः विविध घटकांमुळे असू शकतो, जसे की मूळ प्रशिक्षण डेटामध्ये या भिन्न मजकूर प्रकारांची वारंवारता किंवा सादरीकरण, किंवा कदाचित मॉडेलने पत्रकारितेच्या विरुद्ध कथात्मक गद्यावर प्रक्रिया कशी केली यातील फरक. अचूक दर काहीही असो, वेगवेगळ्या प्रकारच्या कॉपीराइट केलेल्या सामग्रीमध्ये – साहित्यिक कामे आणि पत्रकारितेचे तुकडे दोन्ही – पाठांतर घडले ही वस्तुस्थिती या युक्तिवादाला बळ देते की ही घटना केवळ एका शैलीपुरती किंवा स्त्रोतापुरती मर्यादित नाही.
हे निष्कर्ष चालू असलेल्या कायदेशीर आणि नैतिक चर्चांमध्ये महत्त्वपूर्ण वजन टाकतात. जर GPT-4 सारखे मॉडेल्स खरोखरच विशिष्ट, कॉपीराइट केलेले परिच्छेद ज्यावर त्यांना प्रशिक्षित केले गेले होते ते पुन्हा तयार करण्यास सक्षम असतील, तर ते OpenAI च्या ‘फेअर यूज’ बचावाला गुंतागुंतीचे करते. ‘फेअर यूज’ अनेकदा मूळ कामात परिवर्तन करणाऱ्या वापरांना अनुकूल असते; शब्दशः पुनरुत्पादन, जरी ते अनैच्छिक किंवा संभाव्य असले तरी, परिवर्तनापासून दूर आणि साध्या कॉपी करण्याकडे झुकते. हा पुरावा कॉपीराइट खटल्यांमधील फिर्यादींद्वारे संभाव्यतः वापरला जाऊ शकतो की OpenAI च्या प्रशिक्षण पद्धतींमुळे उल्लंघन करणाऱ्या व्युत्पन्न कामांची निर्मिती झाली किंवा मॉडेलच्या आउटपुटद्वारे थेट उल्लंघनास मदत झाली. हे प्रशिक्षणासाठी वापरलेला डेटा आणि AI द्वारे व्युत्पन्न केलेले विशिष्ट आउटपुट यांच्यातील मूर्त दुवा अधोरेखित करते, ज्यामुळे ‘नमुने शिकणे’ ही अमूर्त संकल्पना ठोस पुनरुत्पादनाच्या खूप जवळची वाटते.
AI विकासामध्ये विश्वास आणि पारदर्शकतेची गरज
अभिलाषा रविचंदर (Abhilasha Ravichander), युनिव्हर्सिटी ऑफ वॉशिंग्टन येथील डॉक्टरेट विद्यार्थिनी आणि अभ्यासाच्या सह-लेखकांपैकी एक, यांनी त्यांच्या संशोधनाच्या व्यापक परिणामांवर जोर दिला. त्यांनी अधोरेखित केले की हे निष्कर्ष संभाव्यतः ‘विवादास्पद डेटा’वर महत्त्वपूर्ण प्रकाश टाकतात जो अनेक समकालीन AI मॉडेल्सचा आधार बनू शकतो. पाठ केलेली सामग्री ओळखण्याची क्षमता OpenAI सारख्या कंपन्यांनी वापरलेल्या अन्यथा अपारदर्शक प्रशिक्षण डेटासेटमध्ये एक छोटीशी खिडकी प्रदान करते.
रविचंदर यांनी AI संशोधन समुदायात आणि लोकांमध्ये वाढणारी भावना व्यक्त केली: ‘विश्वासार्ह लार्ज लँग्वेज मॉडेल्स मिळविण्यासाठी, आम्हाला अशा मॉडेल्सची आवश्यकता आहे ज्यांची आम्ही वैज्ञानिकदृष्ट्या तपासणी, ऑडिट आणि परीक्षण करू शकू.’ हे विधान AI उद्योगासमोरील एका गंभीर आव्हानाला अधोरेखित करते. जसे हे मॉडेल्स समाजाच्या विविध पैलूंमध्ये अधिक समाकलित होत आहेत – बातम्यांचे लेख तयार करणे आणि कोड लिहिण्यापासून ते वैद्यकीय निदान आणि आर्थिक विश्लेषणात मदत करण्यापर्यंत – विश्वास आणि उत्तरदायित्वाची गरज सर्वोपरि बनते. वापरकर्ते, नियामक आणि जनतेला खात्री हवी आहे की या प्रणाली निष्पक्षपणे, विश्वसनीयरित्या आणि नैतिकदृष्ट्या कार्य करतात. अनेक सध्याच्या LLMs चे ‘ब्लॅक बॉक्स’ स्वरूप, जिथे त्यांचे निर्माते देखील त्यांच्या अंतर्गत कार्याची प्रत्येक सूक्ष्मता किंवा विशिष्ट आउटपुटचे अचूक मूळ पूर्णपणे समजू शकत नाहीत, हा विश्वास स्थापित करण्यात अडथळा आणतो.
अभ्यासाची प्रस्तावित पद्धत केवळ कॉपीराइट पाठांतर शोधण्याच्या तंत्रापेक्षा अधिक दर्शवते; ती व्यापक AI ऑडिटिंग साठी संभाव्य साधन म्हणून काम करते. मॉडेल्सची तपासणी करण्याची क्षमता, अगदी केवळ APIs द्वारे ऍक्सेस केलेल्या मॉडेल्सचीही, स्वतंत्र पडताळणी आणि विश्लेषणास अनुमती देते. रविचंदर यांनी पुढे ‘संपूर्ण इकोसिस्टममध्ये अधिक डेटा पारदर्शकतेची तातडीची गरज’ यावर जोर दिला. हे मॉडेल्स कोणत्या डेटावर प्रशिक्षित आहेत हे माहित नसल्यास, संभाव्य पक्षपात, सुरक्षा भेद्यता ओळखणे, हानिकारक किंवा चुकीच्या आउटपुटचे स्त्रोत समजून घेणे किंवा, जसे हा अभ्यास हायलाइट करतो, संभाव्य कॉपीराइट उल्लंघनाची व्याप्ती निश्चित करणे अत्यंत कठीण होते. पारदर्शकतेची मागणी केवळ शैक्षणिक नाही; ती एक जबाबदार आणि टिकाऊ AI भविष्य घडवण्यासाठी मूलभूत आवश्यकता आहे. यात मालकीची माहिती आणि बौद्धिक संपदा (मॉडेल्ससह) संरक्षित करणे आणि सार्वजनिक उत्तरदायित्व आणि सुरक्षितता सुनिश्चित करणे यांच्यातील जटिल तडजोडींचा समावेश आहे. मजबूत ऑडिटिंग साधने आणि फ्रेमवर्कचा विकास, डेटा प्रकटीकरणासाठी स्पष्ट मानकांसह, AI जसजसे वेगाने प्रगती करत आहे तसतसे अधिकाधिक महत्त्वपूर्ण होत आहे.
OpenAI ची भूमिका आणि पुढील अज्ञात मार्ग
निर्माते आणि कायदेकर्त्यांकडून वाढत्या दबावाचा सामना करत, OpenAI ने सातत्याने अशा कायदेशीर आणि नियामक वातावरणाची बाजू मांडली आहे जी AI मॉडेल्सच्या प्रशिक्षणासाठी कॉपीराइट केलेल्या सामग्रीच्या व्यापक वापरास परवानगी देते. कंपनीचा युक्तिवाद आहे की अशी लवचिकता नवोपक्रमासाठी आणि अमेरिकेला जागतिक AI शर्यतीत स्पर्धात्मक धार टिकवून ठेवण्यासाठी आवश्यक आहे. त्यांचे लॉबिंग प्रयत्न जगभरातील सरकारांना विद्यमान कॉपीराइट कायद्यांचा, विशेषतः अमेरिकेतील ‘फेअर यूज’ संकल्पनेचा, AI विकासकांच्या बाजूने अर्थ लावण्यासाठी किंवा संहिताबद्ध करण्यासाठी पटवून देण्यावर केंद्रित आहेत. त्यांचा दावा आहे की कॉपीराइट केलेल्या कामांसह विविध डेटासेटवर मॉडेल्सना प्रशिक्षित करणे हा एक परिवर्तनात्मक वापर आहे जो शक्तिशाली आणि फायदेशीर AI प्रणाली तयार करण्यासाठी आवश्यक आहे.
तथापि, वाढत्या चिंता ओळखून, OpenAI ने या समस्येचे निराकरण करण्यासाठी काही पाऊले उचलली आहेत, जरी टीकाकार अनेकदा ही उपाययोजना अपुरी मानतात. कंपनीने काही प्रकाशक आणि सामग्री निर्मात्यांसोबत सामग्री परवाना करार (content licensing agreements) केले आहेत, ज्यामुळे त्यांची सामग्री वापरण्याची स्पष्ट परवानगी मिळाली आहे. हे करार, जरी महत्त्वपूर्ण असले तरी, GPT-4 सारख्या मॉडेल्सना प्रशिक्षित करण्यासाठी वापरल्या गेलेल्या संभाव्य डेटाच्या केवळ एका अंशाचे प्रतिनिधित्व करतात. शिवाय, OpenAI ने ऑप्ट-आउट यंत्रणा (opt-out mechanisms) लागू केली आहे. यामुळे कॉपीराइट धारकांना औपचारिकपणे विनंती करण्याची परवानगी मिळते की त्यांची सामग्री भविष्यातील AI प्रशिक्षणाच्या उद्देशाने वापरली जाऊ नये. जरी हे निर्मात्यांच्या अधिकारांचा आदर करण्याच्या दिशेने एक पाऊल वाटत असले तरी, या ऑप्ट-आउट प्रणालींची प्रभावीता आणि व्यवहार्यता वादग्रस्त आहे. ते वैयक्तिक निर्मात्यांवर जबाबदारी टाकतात की त्यांचे काम वापरले जाऊ शकते हे शोधणे आणि नंतर ऑप्ट-आउट करण्यासाठी OpenAI च्या विशिष्ट प्रक्रियेतून जाणे. शिवाय, या यंत्रणा सामान्यतः आधीच प्रशिक्षित केलेल्या मॉडेल्समधील सामग्रीच्या वापराकडे लक्ष देत नाहीत.
सध्याची परिस्थिती एका मूलभूत तणावाला प्रतिबिंबित करते: AI कंपन्यांची नवोपक्रमासाठी माहितीच्या विशाल डिजिटल विश्वाचा फायदा घेण्याची इच्छा विरुद्ध निर्मात्यांचा त्यांच्या मूळ कामांवर नियंत्रण ठेवण्याचा आणि त्यातून फायदा मिळवण्याचा अधिकार. पाठांतर दर्शविणारा अभ्यास आणखी एक गुंतागुंतीचा स्तर जोडतो, जो सूचित करतो की ‘डेटावरून शिकणे’ आणि ‘कॉपी करणे’ यामधील रेषा अधिक अस्पष्ट आहे आणि कदाचित मॉडेल विकासकांनी पूर्वी मान्य केल्यापेक्षा जास्त वेळा ओलांडली जाते. पुढील मार्ग अनिश्चित आहे. यात AI प्रशिक्षण डेटाला विशेषतः संबोधित करणारे नवीन कायदे, या नवीन संदर्भात विद्यमान कॉपीराइट कायद्याचा अर्थ लावणारे महत्त्वपूर्ण न्यायालयीन निर्णय, उद्योग-व्यापी सर्वोत्तम पद्धती आणि परवाना फ्रेमवर्कचा विकास, किंवा सुधारित डेटा प्रोव्हनन्स ट्रॅकिंग किंवा मॉडेल पाठांतर कमी करण्यासाठी तंत्रज्ञान समाविष्ट असू शकते. जे स्पष्ट दिसते ते म्हणजे AI आणि कॉपीराइटवरील वाद संपलेला नाही; खरं तर, तो नुकताच सुरू झाला असावा, ज्याचे कृत्रिम बुद्धिमत्तेचे भविष्य आणि सर्जनशील अर्थव्यवस्था या दोन्हींवर खोल परिणाम होतील. पाठांतरासंबंधीचे निष्कर्ष एक कठोर आठवण करून देतात की या शक्तिशाली साधनांना चालना देणाऱ्या डिजिटल डेटाचे मूळ, मालक आणि अधिकार आहेत ज्याकडे दुर्लक्ष केले जाऊ शकत नाही.