OpenAI-யின் GPT-4o: கட்டணத் தரவு பயன்பாடு குறித்த புதிய ஆய்வு

OpenAI போன்ற பெருநிறுவனங்களால் முன்னெடுக்கப்படும் செயற்கை நுண்ணறிவு வளர்ச்சியின் இடைவிடாத முன்னேற்றம், அறிவுசார் சொத்துரிமை மற்றும் தரவு உரிமையின் நீண்டகாலக் கொள்கைகளுடன் அடிக்கடி மோதுகிறது. இந்த மோதல் மீண்டும் ஒரு சர்ச்சையைத் தூண்டியுள்ளது, OpenAI-யின் புதிய முதன்மை மாதிரியான GPT-4o, கட்டணத் தடைகளுக்குப் பின்னால் மறைக்கப்பட்ட பதிப்புரிமை பெற்ற பொருட்களைப் பயன்படுத்திப் பயிற்றுவிக்கப்பட்டிருக்கலாம் என்ற புதிய குற்றச்சாட்டுகள் எழுந்துள்ளன, இது தேவையான அனுமதிகளைப் பெறாமல் நடந்திருக்கலாம். இந்தக் கூற்றுகள் புதிதாக நிறுவப்பட்ட கண்காணிப்புக் குழுவான AI Disclosures Project-இடமிருந்து வருகின்றன, இது அதிநவீன AI அமைப்புகளுக்குப் பயிற்சி அளிப்பதற்கான தரவுகளை நெறிமுறைப்படி பெறுவது குறித்த ஏற்கனவே சிக்கலான விவாதத்திற்கு மற்றொரு சிக்கலான அடுக்கைச் சேர்க்கிறது.

கண்காணிப்புக் குழுவின் எச்சரிக்கை: AI Disclosures Project-இன் குற்றச்சாட்டுகள்

2024-இல் தொடங்கப்பட்ட AI Disclosures Project, AI துறையில் பெரும்பாலும் ஒளிபுகா நடைமுறைகளை ஆராய்வதற்காக அர்ப்பணிக்கப்பட்ட ஒரு இலாப நோக்கற்ற நிறுவனமாகத் தன்னை நிலைநிறுத்துகிறது. அதன் நிறுவனர்களில் ஊடக தொழில்முனைவோர் Tim O’Reilly (தொழில்நுட்ப புத்தகங்களின் முக்கிய வெளியீட்டாளரான O’Reilly Media-வின் நிறுவனர்) மற்றும் பொருளாதார நிபுணர் Ilan Strauss போன்ற குறிப்பிடத்தக்க நபர்கள் அடங்குவர். O’Reilly Media-வுடனான இந்தத் தொடர்பு குறிப்பாக முக்கியமானது, ஏனெனில் திட்டத்தின் ஆரம்ப அதிர்ச்சி அறிக்கை GPT-4o-வின் பயிற்சித் தரவுத்தொகுப்பில் O’Reilly-யின் கட்டணப் புத்தக உள்ளடக்கம் இருப்பதாகக் கூறப்படும் குற்றச்சாட்டில் குறிப்பாக கவனம் செலுத்துகிறது.

அவர்களின் ஆய்வின் மையக் கருத்து ஆத்திரமூட்டும் வகையில் உள்ளது: OpenAI மற்றும் O’Reilly Media இடையே அறியப்பட்ட உரிம ஒப்பந்தம் எதுவும் இல்லாத போதிலும், GPT-4o மாதிரி O’Reilly-யின் பதிப்புரிமை பெற்ற புத்தகங்களிலிருந்து நேரடியாகப் பெறப்பட்ட உள்ளடக்கத்துடன் குறிப்பிடத்தக்க அளவு பரிச்சயத்தைக் காட்டுகிறது. இந்தப் பரிச்சயம், கட்டணத் தடைகளுக்குப் பின்னாலுள்ள இந்த பொருட்கள் மாதிரியின் திறன்களை உருவாக்கப் பயன்படுத்தப்பட்ட பரந்த தரவுக் களஞ்சியத்தில் இணைக்கப்பட்டன என்பதை வலுவாகக் குறிக்கிறது என்று அறிக்கை வாதிடுகிறது. இந்த ஆய்வு பழைய OpenAI மாதிரிகளுடன், குறிப்பாக GPT-3.5 Turbo உடன் ஒப்பிடும்போது குறிப்பிடத்தக்க வேறுபாட்டைக் காட்டுகிறது, இது GPT-4o-வின் வளர்ச்சிக்கு வழிவகுத்த தரவு கையகப்படுத்தல் நடைமுறைகளில் சாத்தியமான மாற்றம் அல்லது விரிவாக்கத்தைக் குறிக்கிறது.

இதன் தாக்கங்கள் கணிசமானவை. தனியுரிம, கட்டண உள்ளடக்கம் அங்கீகாரம் அல்லது இழப்பீடு இல்லாமல் AI மாதிரிகளால் உட்கொள்ளப்பட்டால், அது உருவாக்கும் AI யுகத்தில் பதிப்புரிமைச் சட்டம் குறித்த அடிப்படைக் கேள்விகளை எழுப்புகிறது. வெளியீட்டாளர்கள் மற்றும் ஆசிரியர்கள் சந்தா அல்லது கொள்முதல் மாதிரிகளை நம்பியுள்ளனர், இது அவர்களின் உள்ளடக்கத்தின் பிரத்தியேகத்தன்மையை அடிப்படையாகக் கொண்டது. பயிற்சியளிப்பதற்காக இந்த பொருளைப் பயன்படுத்தியதாகக் கூறப்படுவது இந்த வணிக மாதிரிகளைக் குறைமதிப்பிற்கு உட்படுத்துவதாகக் காணப்படலாம், இது உருவாக்க கணிசமான முதலீடு தேவைப்படும் உள்ளடக்கத்தின் மதிப்பைக் குறைக்கக்கூடும். இந்தக் குறிப்பிட்ட குற்றச்சாட்டு பொதுவில் கிடைக்கும் வலைத்தளங்களை சுரண்டுவதைத் தாண்டி, பணம் செலுத்தும் வாடிக்கையாளர்களுக்காக வெளிப்படையாக நோக்கம் கொண்ட உள்ளடக்கத்தை அணுகும் எல்லைக்குள் செல்கிறது.

கருப்புப் பெட்டிக்குள் எட்டிப்பார்த்தல்: உறுப்பினர் ஊகத் தாக்குதல் (Membership Inference Attack)

தங்கள் கூற்றுகளை உறுதிப்படுத்த, AI Disclosures Project-இல் உள்ள ஆராய்ச்சியாளர்கள் “உறுப்பினர் ஊகத் தாக்குதல்” (membership inference attack) எனப்படும் ஒரு அதிநவீன நுட்பத்தைப் பயன்படுத்தினர், குறிப்பாக அவர்கள் DE-COP என்று அழைக்கும் ஒரு முறையைப் பயன்படுத்தினர். இந்த அணுகுமுறையின் பின்னணியில் உள்ள முக்கிய யோசனை என்னவென்றால், ஒரு AI மாதிரி குறிப்பிட்ட உரைத் துண்டுகளை “மனப்பாடம்” செய்துள்ளதா அல்லது குறைந்தபட்சம் வலுவான பரிச்சயத்தை வளர்த்துள்ளதா என்பதைச் சோதிப்பதாகும். சாராம்சத்தில், இந்தத் தாக்குதல் மாதிரியை அசல் உரைப் பத்திகளுக்கும் (இந்த விஷயத்தில், O’Reilly புத்தகங்களிலிருந்து) அதே பத்திகளின் கவனமாக உருவாக்கப்பட்ட மறுவடிவமைக்கப்பட்ட பதிப்புகளுக்கும் (மற்றொரு AI-ஆல் உருவாக்கப்பட்டது) இடையில் நம்பகத்தன்மையுடன் வேறுபடுத்த முடியுமா என்று சோதிக்கிறது.

இதன் பின்னணியில் உள்ள தர்க்கம் என்னவென்றால், ஒரு மாதிரி நெருக்கமான மறுவடிவமைக்கப்பட்ட பதிப்போடு ஒப்பிடும்போது அசல் மனிதனால் எழுதப்பட்ட உரையை அடையாளம் காணும் திறனை சீராக சீரற்றதை விட அதிகமாகக் காட்டினால், அந்த மாதிரி அந்த அசல் உரையை இதற்கு முன்பு சந்தித்திருக்கலாம் - அநேகமாக அதன் பயிற்சி கட்டத்தின் போது. இது, தாங்கள் பார்த்ததில்லை என்று கூறும் ஒரு குறிப்பிட்ட, அதிகம் அறியப்படாத புகைப்படத்தை யாராவது அடையாளம் காண்கிறார்களா என்று சோதிப்பதைப் போன்றது; சீரான அங்கீகாரம் முந்தைய வெளிப்பாட்டைக் குறிக்கிறது.

AI Disclosures Project-இன் சோதனையின் அளவு கணிசமானது. அவர்கள் 34 வெவ்வேறு O’Reilly Media புத்தகங்களிலிருந்துஎடுக்கப்பட்ட 13,962 தனித்துவமான பத்தி பகுதிகளைப் பயன்படுத்தினர். இந்தப் பகுதிகள் பொதுவாக வெளியீட்டாளரின் கட்டணத் தடைக்குப் பின்னால் காணப்படும் சிறப்பு வாய்ந்த, உயர் மதிப்புள்ள உள்ளடக்க வகைப் பிரதிநிதித்துவப்படுத்தின. இந்த ஆய்வு பின்னர் GPT-4o மற்றும் அதன் முன்னோடி GPT-3.5 Turbo ஆகிய இரண்டின் செயல்திறனையும் இந்த வேறுபடுத்தும் பணியில் அளவிட்டது.

அறிக்கையில் வழங்கப்பட்ட முடிவுகள் வியக்க வைத்தன. GPT-4o கட்டண O’Reilly உள்ளடக்கத்தை அங்கீகரிப்பதில் கணிசமாக அதிகரித்த திறனைக் காட்டியது. அதன் செயல்திறன் AUROC (Area Under the Receiver Operating Characteristic curve) மதிப்பெண் மூலம் அளவிடப்பட்டது, இது பைனரி வகைப்படுத்திகளின் செயல்திறனை மதிப்பிடுவதற்கான ஒரு பொதுவான அளவீடு ஆகும். GPT-4o 82% AUROC மதிப்பெண்ணை அடைந்தது. இதற்கு மாறாக, GPT-3.5 Turbo 50% க்கு சற்று அதிகமாக மதிப்பெண் பெற்றது, இது அடிப்படையில் சீரற்ற யூகத்திற்கு சமம் - சோதிக்கப்பட்ட பொருளின் குறிப்பிட்ட அங்கீகாரம் இல்லை அல்லது மிகக் குறைவு என்பதைக் குறிக்கிறது. இந்த அப்பட்டமான வேறுபாடு, கட்டண உள்ளடக்கம் உண்மையில் GPT-4o-வின் பயிற்சித் தரவின் ஒரு பகுதியாக இருந்தது என்பதற்கு கட்டாயமான, மறைமுகமான ஆதாரத்தை வழங்குகிறது என்று அறிக்கை வாதிடுகிறது. 82% மதிப்பெண் ஒரு வலுவான சமிக்ஞையைக் குறிக்கிறது, இது தற்செயலாக அல்லது பொதுவான அறிவின் மூலம் எதிர்பார்க்கப்படுவதை விட மிக அதிகம்.

அவசியமான எச்சரிக்கைகள் மற்றும் பதிலளிக்கப்படாத கேள்விகள்

கண்டுபிடிப்புகள் ஒரு கட்டாயக் கதையை முன்வைத்தாலும், AI ஆராய்ச்சியாளர் Sruly Rosenblat உட்பட ஆய்வின் இணை ஆசிரியர்கள், தங்கள் வழிமுறையில் உள்ள உள்ளார்ந்த வரம்புகள் மற்றும் AI பயிற்சியின் சிக்கலான தன்மையை பாராட்டத்தக்க வகையில் ஒப்புக்கொள்கிறார்கள். அவர்கள் எழுப்பும் ஒரு குறிப்பிடத்தக்க எச்சரிக்கை மறைமுக தரவு உட்கொள்ளல் (indirect data ingestion) சாத்தியம் ஆகும். ChatGPT (OpenAI-யின் பிரபலமான இடைமுகம்) பயனர்கள் கட்டண O’Reilly புத்தகங்களிலிருந்து பகுதிகளை நகலெடுத்து நேரடியாக அரட்டை இடைமுகத்தில் பல்வேறு நோக்கங்களுக்காக ஒட்டியிருக்கலாம், அதாவது உரை பற்றிய கேள்விகளைக் கேட்பது அல்லது சுருக்கங்களைக் கோருவது போன்றவை சாத்தியம் என்று அவர்கள் குறிப்பிடுகிறார்கள். இது போதுமான அளவு அடிக்கடி நடந்திருந்தால், ஆரம்ப பயிற்சித் தரவுத்தொகுப்பில் நேரடிச் சேர்ப்பின் மூலம் அல்லாமல், பயனர் தொடர்புகள் மூலம் மாதிரி மறைமுகமாகக் உள்ளடக்கத்தைக் கற்றிருக்கலாம். நேரடிப் பயிற்சி வெளிப்பாட்டை பயனர் தூண்டுதல்கள் வழியாக மறைமுகக் கற்றலிலிருந்து பிரிப்பது AI தடயவியலில் ஒரு குறிப்பிடத்தக்க சவாலாக உள்ளது.

மேலும், ஆய்வின் நோக்கம் OpenAI-யின் முழுமையான சமீபத்திய அல்லது சிறப்பு மாதிரி மறு செய்கைகளுக்கு நீட்டிக்கப்படவில்லை, அவை GPT-4o-வின் முக்கிய பயிற்சி சுழற்சிக்கு ஒரே நேரத்தில் அல்லது பின்னர் உருவாக்கப்பட்டிருக்கலாம் அல்லது வெளியிடப்பட்டிருக்கலாம். GPT-4.5 (அந்த குறிப்பிட்ட பெயரிடல் அல்லது திறன் மட்டத்தில் அது இருந்தால்) மற்றும் o3-mini மற்றும் o1 போன்ற பகுத்தறிவு-மையப்படுத்தப்பட்ட மாதிரிகள் உட்பட சாத்தியமான மாதிரிகள் அதே உறுப்பினர் ஊகத் தாக்குதல்களுக்கு உட்படுத்தப்படவில்லை. தரவு ஆதார நடைமுறைகள் மேலும் உருவாகியிருக்கலாமா, அல்லது இந்த புதிய மாதிரிகள் கட்டண உள்ளடக்கத்துடன் இதேபோன்ற பரிச்சய முறைகளைக் காட்டுகின்றனவா என்ற கேள்வியை இது திறந்து விடுகிறது. AI வளர்ச்சியில் விரைவான மறு செய்கை சுழற்சிகள் எந்தவொரு ஸ்னாப்ஷாட் பகுப்பாய்வும் கிட்டத்தட்ட உடனடியாக சற்று காலாவதியாகும் அபாயத்தைக் கொண்டுள்ளது.

இந்த வரம்புகள் ஆய்வின் முக்கிய கண்டுபிடிப்புகளை የግድ செல்லாததாக்காது, ஆனால் அவை நுணுக்கத்தின் முக்கியமான அடுக்குகளைச் சேர்க்கின்றன. ஒரு அடித்தள மாதிரியைப் பயிற்றுவிக்கப் பயன்படுத்தப்படும் டெராபைட் கணக்கான தரவுகளுக்குள் என்ன இருக்கிறது என்பதை உறுதியாக நிரூபிப்பது மிகவும் கடினம். உறுப்பினர் ஊகத் தாக்குதல்கள் நிகழ்தகவு ஆதாரங்களை வழங்குகின்றன, இது முழுமையான உறுதியை வழங்குவதை விட சாத்தியக்கூறுகளைக் குறிக்கிறது. OpenAI, மற்ற AI ஆய்வகங்களைப் போலவே, தனியுரிமைக் கவலைகள் மற்றும் போட்டி உணர்திறன்களைக் காரணம் காட்டி அதன் பயிற்சித் தரவு அமைப்பை நெருக்கமாகப் பாதுகாக்கிறது.

ஒரு பரந்த மோதல்: AI அரங்கில் பதிப்புரிமைப் போர்கள்

AI Disclosures Project-ஆல் முன்வைக்கப்பட்ட குற்றச்சாட்டுகள் ஒரு வெற்றிடத்தில் இல்லை. அவை AI டெவலப்பர்களுக்கும் படைப்பாளர்களுக்கும் இடையில் பயிற்சி நோக்கங்களுக்காக பதிப்புரிமை பெற்ற பொருட்களைப் பயன்படுத்துவது குறித்த மிகப் பரந்த, நடந்துகொண்டிருக்கும் மோதலின் சமீபத்திய மோதலைப் பிரதிநிதித்துவப்படுத்துகின்றன. OpenAI, Google, Meta மற்றும் Microsoft போன்ற பிற முக்கிய நிறுவனங்களுடன் சேர்ந்து, பல உயர்மட்ட வழக்குகளில் சிக்கியுள்ளது. ஆசிரியர்கள், கலைஞர்கள், செய்தி நிறுவனங்கள் மற்றும் பிற உரிமைதாரர்களால் கொண்டுவரப்பட்ட இந்த சட்ட சவால்கள், பொதுவாக உருவாக்கும் AI மாதிரிகளுக்குப் பயிற்சி அளிக்க இணையத்திலிருந்து பரந்த அளவிலான உரை மற்றும் படங்களை அங்கீகரிக்கப்படாத முறையில் சுரண்டுதல் மற்றும் உட்கொள்வதால் ஏற்படும் பரவலான பதிப்புரிமை மீறலைக் குற்றம் சாட்டுகின்றன.

AI நிறுவனங்களால் அடிக்கடி முன்வைக்கப்படும் முக்கிய பாதுகாப்பு நியாயமான பயன்பாட்டுக் கோட்பாட்டை (fair use doctrine) (அமெரிக்காவில்) அல்லது பிற அதிகார வரம்புகளில் உள்ள ஒத்த விதிவிலக்குகளை நம்பியுள்ளது. பயிற்சிக்கு பதிப்புரிமை பெற்ற படைப்புகளைப் பயன்படுத்துவது ஒரு “மாற்றத்தக்க” பயன்பாடு என்று அவர்கள் வாதிடுகின்றனர் - AI மாதிரிகள் அசல் படைப்புகளை வெறுமனே மீண்டும் உருவாக்கவில்லை, ஆனால் புதிய வெளியீடுகளை உருவாக்க வடிவங்கள், பாணிகள் மற்றும் தகவல்களைக் கற்றுக்கொள்ள தரவைப் பயன்படுத்துகின்றன. இந்த விளக்கத்தின் கீழ், சக்திவாய்ந்த புதிய கருவியை உருவாக்கும் நோக்கில் பயிற்சி செயல்முறை, உட்கொள்ளப்பட்ட ஒவ்வொரு தரவுத் துண்டுக்கும் உரிமம் தேவையில்லாமல் அனுமதிக்கப்பட வேண்டும்.

இருப்பினும், உரிமைதாரர்கள் இந்தக் கருத்தை கடுமையாக எதிர்க்கின்றனர். சம்பந்தப்பட்ட நகலெடுப்பின் அளவு, கட்டப்படும் AI தயாரிப்புகளின் வணிகத் தன்மை மற்றும் AI வெளியீடுகள் அசல் படைப்புகளுடன் நேரடியாகப் போட்டியிட்டு அவற்றை மாற்றியமைக்கும் சாத்தியம் ஆகியவை நியாயமான பயன்பாட்டைக் கண்டறிவதற்கு எதிராக பெரிதும் எடைபோடுகின்றன என்று அவர்கள் வாதிடுகின்றனர். படைப்பாளிகளுக்கு இழப்பீடு வழங்காமல் AI நிறுவனங்கள் பில்லியன் டாலர் நிறுவனங்களை படைப்பாற்றல் பணிகளின் முதுகில் கட்டுகின்றன என்பதே வாதம்.

இந்த வழக்காடும் பின்னணிக்கு எதிராக, OpenAI பல்வேறு உள்ளடக்க வழங்குநர்களுடன் உரிம ஒப்பந்தங்களை (licensing deals) செய்வதன் மூலம் சில அபாயங்களைக் குறைக்க முன்கூட்டியே முயன்றுள்ளது. முக்கிய செய்தி வெளியீட்டாளர்கள் (Associated Press மற்றும் Axel Springer போன்றவை), சமூக ஊடக தளங்கள் (Reddit போன்றவை) மற்றும் பங்கு ஊடக நூலகங்கள் (Shutterstock போன்றவை) ஆகியவற்றுடன் ஒப்பந்தங்கள் அறிவிக்கப்பட்டுள்ளன. இந்த ஒப்பந்தங்கள் OpenAI-க்கு கட்டணத்திற்கு ஈடாக குறிப்பிட்ட தரவுத்தொகுப்புகளுக்கு முறையான அணுகலை வழங்குகின்றன, இது சாத்தியமான மீறல் வலை-சுரண்டப்பட்ட தரவை நம்பியிருப்பதைக் குறைக்கிறது. நிறுவனம் பத்திரிகையாளர்களைப் பணியமர்த்தியதாகவும் கூறப்படுகிறது, அவர்களின் மாதிரிகளின் வெளியீடுகளின் தரம் மற்றும் நம்பகத்தன்மையைச் செம்மைப்படுத்தவும் மேம்படுத்தவும் அவர்களுக்குப் பணி வழங்கப்பட்டுள்ளது, இது உயர்தர, சாத்தியமான முறையில் தொகுக்கப்பட்ட உள்ளீட்டின் தேவையைப் பற்றிய விழிப்புணர்வைக் குறிக்கிறது.

சிற்றலை விளைவு: உள்ளடக்க சுற்றுச்சூழல் கவலைகள்

AI Disclosures Project-இன் அறிக்கை அதன் கவலைகளை OpenAI-க்கான உடனடி சட்ட தாக்கங்களுக்கு அப்பால் விரிவுபடுத்துகிறது. இது முழு டிஜிட்டல் உள்ளடக்க சுற்றுச்சூழலின் ஆரோக்கியத்தையும் பன்முகத்தன்மையையும் எதிர்மறையாகப் பாதிக்கக்கூடிய ஒரு அமைப்பு ரீதியான அச்சுறுத்தலாக இந்த சிக்கலை வடிவமைக்கிறது. AI நிறுவனங்கள் உயர்தர, தொழில் ரீதியாக உருவாக்கப்பட்ட உள்ளடக்கத்தை (கட்டணப் பொருட்கள் உட்பட) படைப்பாளிகளுக்கு இழப்பீடு வழங்காமல் சுதந்திரமாகப் பயன்படுத்த முடிந்தால், அது அத்தகைய உள்ளடக்கத்தை முதலில் தயாரிப்பதற்கான நிதி நம்பகத்தன்மையை அரித்துவிடும் என்று ஆய்வு ஒரு சாத்தியமான சேதப்படுத்தும் பின்னூட்ட வளையத்தை முன்வைக்கிறது.

தொழில்முறை உள்ளடக்க உருவாக்கம் - அது புலனாய்வு இதழியல், ஆழமான தொழில்நுட்ப கையேடுகள், புனைகதை எழுதுதல் அல்லது கல்வி ஆராய்ச்சி எதுவாக இருந்தாலும் - பெரும்பாலும் குறிப்பிடத்தக்க நேரம், நிபுணத்துவம் மற்றும் நிதி முதலீடு தேவைப்படுகிறது. கட்டணத் தடைகள் மற்றும் சந்தா மாதிரிகள் பெரும்பாலும் இந்தப் பணியை நிதியளிப்பதற்கான அத்தியாவசிய வழிமுறைகளாகும். இந்த முயற்சிகளை ஆதரிக்கும் வருவாய் ஓடைகள் குறைந்துவிட்டால், ஏனெனில் உள்ளடக்கம் போட்டியிடும் AI அமைப்புகளுக்குப் பயிற்சி அளிக்கப் பயன்படுத்தப்படுகிறது, உயர்தர, மாறுபட்ட உள்ளடக்கத்தை உருவாக்குவதற்கான ஊக்கம் குறையக்கூடும். இது குறைவான தகவலறிந்த பொதுமக்களுக்கு வழிவகுக்கும், சிறப்பு அறிவு வளங்களில் குறைப்பு, மற்றும் மனித நிபுணத்துவம் மற்றும் சரிபார்ப்பு இல்லாத குறைந்த தரம் அல்லது AI-உருவாக்கிய உள்ளடக்கத்தால் ஆதிக்கம் செலுத்தப்படும் இணையத்திற்கு வழிவகுக்கும்.

இதன் விளைவாக, AI Disclosures Project AI நிறுவனங்களிடமிருந்து அவர்களின் பயிற்சித் தரவு நடைமுறைகள் குறித்து அதிக வெளிப்படைத்தன்மை மற்றும் பொறுப்புக்கூறலை வலுவாக ஆதரிக்கிறது. வணிக AI மாதிரிகளின் வளர்ச்சிக்கு அவர்களின் பணி பங்களிக்கும்போது உள்ளடக்க படைப்பாளர்களுக்கு நியாயமான இழப்பீடு வழங்கப்படுவதை உறுதிசெய்யும் வலுவான கொள்கைகள் மற்றும் சாத்தியமான ஒழுங்குமுறை கட்டமைப்புகளைச் செயல்படுத்த அவர்கள் அழைக்கிறார்கள். இது உலகெங்கிலும் உள்ள படைப்பாளர் குழுக்களிடமிருந்து பரந்த அழைப்புகளை எதிரொலிக்கிறது, அவர்கள் தங்கள் அறிவுசார் சொத்துரிமையில் பயிற்சி பெற்ற AI அமைப்புகளால் உருவாக்கப்படும் மதிப்பில் ஒரு பங்கைப் பெறுவதை உறுதிசெய்யும் வழிமுறைகளை - உரிம ஒப்பந்தங்கள், ராயல்டி அமைப்புகள் அல்லது கூட்டு பேரம் பேசுதல் மூலம் - நாடுகின்றனர். மனித படைப்பாற்றல் மற்றும் அறிவு உருவாக்கத்திற்கான செழிப்பான சுற்றுச்சூழலுடன் AI கண்டுபிடிப்பு செழிக்கக்கூடிய ஒரு நிலையான சமநிலையைக் கண்டறிவதில் விவாதம் மையமாக உள்ளது. நடந்துகொண்டிருக்கும் சட்டப் போர்களின் தீர்வு மற்றும் புதிய சட்டம் அல்லது தொழில் தரங்களுக்கான சாத்தியம் இந்த எதிர்கால சமநிலையை வடிவமைப்பதில் முக்கியமானதாக இருக்கும். பாரிய, சிக்கலான AI மாதிரிகளில் தரவு மூலத்தைக் கண்காணிப்பது மற்றும் மதிப்பைக் கூறுவது எப்படி என்ற கேள்வி ஒரு குறிப்பிடத்தக்க தொழில்நுட்ப மற்றும் நெறிமுறைத் தடையாக உள்ளது.