AI 'திறந்த மூல' வேடம்: அறிவியல் நேர்மைக்கான அழைப்பு

அடிப்படைக் கருத்தின் மதிப்பைக் குறைத்தல்: 'திறந்த மூலத்தின்' அரிப்பு

‘திறந்த மூலம்’ என்ற சொல் ஒரு காலத்தில் தொழில்நுட்ப மற்றும் அறிவியல் துறைகளில் ஒரு வழிகாட்டியாக நின்றது. இது வெளிப்படைத்தன்மை, தடையற்ற அணுகல், கூட்டு மேம்பாடு மற்றும் மறுஉருவாக்கத்தின் அடிப்படைக் கொள்கை ஆகியவற்றில் வேரூன்றிய ஒரு சக்திவாய்ந்த நெறிமுறையைக் குறித்தது. பல தலைமுறை ஆராய்ச்சியாளர்கள் மற்றும் டெவலப்பர்களுக்கு, இது பகிரப்பட்ட அறிவு மற்றும் கூட்டு முன்னேற்றத்திற்கான அர்ப்பணிப்பைக் குறித்தது. R Studio போன்ற சூழல்களில் காணப்படும் அடிப்படை புள்ளிவிவரக் கருவிகள், பல துறைகளில் எண்ணற்ற பகுப்பாய்வுகளுக்கு அதிகாரம் அளிக்கின்றன, முதல் OpenFOAM போன்ற அதிநவீன உருவகப்படுத்துதல் தளங்கள் வரை, திரவ இயக்கவியலின் சிக்கல்களை அவிழ்க்கப் பயன்படுத்தப்படுகின்றன, திறந்த மூல மென்பொருள் புதுமைக்கான இன்றியமையாத ஊக்கியாக இருந்து வருகிறது. இது உலகெங்கிலும் உள்ள விஞ்ஞானிகளை ஒருவருக்கொருவர் வேலையை ஆய்வு செய்யவும், சரிபார்க்கவும், மாற்றியமைக்கவும், உருவாக்கவும் அனுமதிப்பதன் மூலம் கண்டுபிடிப்பை விரைவுபடுத்தியது, கண்டுபிடிப்புகளைப் பிரதிபலிக்கவும் சரிபார்க்கவும் முடியும் என்பதை உறுதிசெய்தது - இது விஞ்ஞான முறையின் அடித்தளமாகும்.

இருப்பினும், செயற்கை நுண்ணறிவின் வளர்ந்து வரும் துறையால் இந்த நம்பகமான பதவிக்கு மேல் இப்போது ஒரு நிழல் சூழ்ந்துள்ளது. Nature போன்ற வெளியீடுகளால் குறிப்பிடப்பட்டவை உட்பட சமீபத்திய விமர்சன விவாதங்களில் முன்னிலைப்படுத்தப்பட்டபடி, முக்கிய AI டெவலப்பர்கள் தங்கள் மாடல்களுக்கு ‘திறந்த மூல’ லேபிளை ஏற்றுக்கொண்டு, உண்மையான திறந்த தன்மைக்குத் தேவையான முக்கிய கூறுகளை ஒரே நேரத்தில் நிறுத்தி வைக்கும் ஒரு கவலைக்குரிய போக்கு வெளிப்பட்டுள்ளது. இந்தப் பழக்கம் இந்த வார்த்தையின் அர்த்தத்தை நீர்த்துப்போகச் செய்யும் அபாயத்தை ஏற்படுத்துகிறது, இது வெளிப்படைத்தன்மையின் சின்னத்திலிருந்து தவறாக வழிநடத்தும் சந்தைப்படுத்தல் முழக்கமாக மாற்றுகிறது. முக்கிய பிரச்சினை பெரும்பாலும் நவீன AI அமைப்புகளின் தனித்துவமான தன்மையில் உள்ளது. மூலக் குறியீடு மிக முக்கியமானதாக இருக்கும் பாரம்பரிய மென்பொருளைப் போலல்லாமல், பெரிய AI மாடல்களின் சக்தி மற்றும் நடத்தை அவற்றின் பயிற்சிக்கு பயன்படுத்தப்படும் பரந்த தரவுத்தொகுப்புகள் மற்றும் அவற்றை வரையறுக்கும் சிக்கலான கட்டமைப்புகளுடன் பிரிக்கமுடியாமல் இணைக்கப்பட்டுள்ளன. இந்த பயிற்சித் தரவு அல்லது மாதிரியின் கட்டுமானம் மற்றும் எடையிடல் பற்றிய விரிவான தகவல்களுக்கான அணுகல் தடைசெய்யப்பட்டால், மாதிரியின் குறியீட்டின் சில பகுதி கிடைக்கப்பெற்றாலும், ‘திறந்த மூலமாக’ இருப்பதற்கான கூற்று வெற்றுத்தனமாக ஒலிக்கிறது. இந்த முரண்பாடு திறந்த மூல தத்துவத்தின் இதயத்தைத் தாக்குகிறது, அணுகல்தன்மையின் மாயையை உருவாக்குகிறது, அதே நேரத்தில் சுயாதீன ஆய்வு மற்றும் பிரதிபலிப்புக்கு மிக முக்கியமான கூறுகளை மறைக்கிறது.

அறிவியல் AI இல் உண்மையான திறந்த தன்மையின் கட்டாயம்

AI இல், குறிப்பாக அறிவியல் களத்தில் உண்மையான திறந்த தன்மையைப் பேணுவதோடு தொடர்புடைய பங்குகள் அதிகமாக இருக்க முடியாது. முடிவுகளை சுயாதீனமாக சரிபார்க்கவும், வழிமுறைகளைப் புரிந்துகொள்ளவும், முந்தைய வேலையை உருவாக்கவும் அறிவியலுக்கு திறன் தேவை. கருவிகள் - பெருகிய முறையில் அதிநவீன AI மாதிரிகள் - கருப்பு பெட்டிகளாக மாறும்போது, இந்த அடிப்படை செயல்முறை ஆபத்தில் உள்ளது. அதன் உள் செயல்பாடுகள், பயிற்சி தரவு சார்புகள் அல்லது சாத்தியமான தோல்வி முறைகள் ஒளிபுகாவாக இருக்கும் AI அமைப்புகளை நம்பியிருப்பது ஆராய்ச்சியில் ஏற்றுக்கொள்ள முடியாத அளவிலான நிச்சயமற்ற தன்மையை அறிமுகப்படுத்துகிறது. அந்த வெளியீட்டை வடிவமைக்கும் காரணிகள் அறியப்படாதவை அல்லது சரிபார்க்க முடியாதவை என்றால், ஒரு விஞ்ஞானி ஒரு AI இன் வெளியீட்டின் அடிப்படையில் முடிவுகளை எவ்வாறு நம்பிக்கையுடன் அடிப்படையாகக் கொள்ள முடியும்? சுயாதீனமாக தணிக்கை செய்யவோ அல்லது பிரதிபலிக்கவோ முடியாத தனியுரிம அமைப்புகளால் உருவாக்கப்பட்ட கண்டுபிடிப்புகளை சமூகம் எவ்வாறு நம்ப முடியும்?

அறிவியலில் திறந்த மூல மென்பொருளின் வரலாற்று வெற்றி ஒரு தெளிவான வேறுபாட்டையும் தெளிவான அளவுகோலையும் வழங்குகிறது. பாரம்பரிய திறந்த மூல திட்டங்களில் உள்ளார்ந்த வெளிப்படைத்தன்மை நம்பிக்கையை வளர்த்தது மற்றும் வலுவான சக மதிப்பாய்வை இயக்கியது. ஆராய்ச்சியாளர்கள் வழிமுறைகளை ஆராயலாம், அவற்றின் வரம்புகளைப் புரிந்து கொள்ளலாம் மற்றும் குறிப்பிட்ட தேவைகளுக்கு ஏற்ப அவற்றை மாற்றியமைக்கலாம். இந்த கூட்டு சுற்றுச்சூழல் அமைப்பு உயிர் தகவலியல் முதல் வானியற்பியல் வரையிலான துறைகளில் முன்னேற்றத்தை துரிதப்படுத்தியது. அறிவியல் கண்டுபிடிப்பில் புரட்சியை ஏற்படுத்துவதற்கான AI இன் சாத்தியம் மகத்தானது, சிக்கலான தரவுத்தொகுப்புகளை பகுப்பாய்வு செய்வதற்கும், கருதுகோள்களை உருவாக்குவதற்கும், முன்னோடியில்லாத அளவுகளில் சிக்கலான செயல்முறைகளை உருவகப்படுத்துவதற்கும் உறுதியளிக்கிறது. இருப்பினும், இந்த திறனை உணர்ந்து கொள்வது, விஞ்ஞான முன்னேற்றத்தை எப்போதும் ஆதரித்த வெளிப்படைத்தன்மை மற்றும் மறுஉருவாக்கம் ஆகியவற்றின் அதே கொள்கைகளைப் பேணுவதைப் பொறுத்தது. ‘திறந்த’ என்று வேடமிட்டிருந்தாலும், மூடிய, தனியுரிம AI அமைப்புகளை நோக்கிய ஒரு மாற்றம், ஆராய்ச்சி சமூகத்தை பிளவுபடுத்தவும், ஒத்துழைப்பைத் தடுக்கவும், இறுதியில் புரிந்துகொள்ளுதல் மற்றும் சரிபார்ப்புக்கான தடைகளை அமைப்பதன் மூலம் கண்டுபிடிப்பின் வேகத்தைக் குறைக்கவும் அச்சுறுத்துகிறது. விஞ்ஞான முயற்சிக்கு சக்திவாய்ந்த கருவிகள் மட்டுமல்ல, வெளிப்படையான மற்றும் நம்பகமான கருவிகளும் தேவை.

தரவு புதிர்: AI இன் வெளிப்படைத்தன்மை சவால்

AI இல் ‘திறந்த மூல’ விவாதத்தின் மையத்தில் பயிற்சி தரவு பற்றிய முக்கியமான பிரச்சினை உள்ளது. முதன்மையாக அதன் குறியீட்டால் வரையறுக்கப்பட்ட வழக்கமான மென்பொருளைப் போலல்லாமல், பெரிய மொழி மாதிரிகள் (LLMs) மற்றும் பிற அடிப்படை AI அமைப்புகள் அவற்றின் வளர்ச்சியின் போது அவை உட்கொள்ளும் பிரம்மாண்டமான தரவுத்தொகுப்புகளால் அடிப்படையில் வடிவமைக்கப்படுகின்றன. இந்தத் தரவின் பண்புகள், சார்புகள் மற்றும் தோற்றம் ஆகியவை மாதிரியின் நடத்தை, அதன் திறன்கள் மற்றும் அதன் சாத்தியமான வரம்புகளை ஆழமாக பாதிக்கின்றன. எனவே, AI இல் உண்மையான திறந்த தன்மைக்கு, மாதிரி எடைகள் அல்லது அனுமானக் குறியீட்டை வெளியிடுவதைத் தாண்டி, இந்தத் தரவைப் பற்றிய வெளிப்படைத்தன்மை தேவைப்படுகிறது.

தற்போது ‘திறந்த மூல’ குடையின் கீழ் சந்தைப்படுத்தப்படும் பல மாதிரிகள் இந்த முன்னணியில் குறிப்பிடத்தக்க வகையில் குறைவாக உள்ளன. Meta இன் Llama தொடர், Microsoft இன் Phi-2, அல்லது Mistral AI இன் Mixtral போன்ற முக்கிய எடுத்துக்காட்டுகளைக் கவனியுங்கள். இந்த நிறுவனங்கள் சில கூறுகளை வெளியிடும்போது, டெவலப்பர்கள் மாதிரிகளை இயக்கவோ அல்லது சரிசெய்யவோ அனுமதிக்கின்றன, அவை பெரும்பாலும் குறிப்பிடத்தக்க கட்டுப்பாடுகளை விதிக்கின்றன அல்லது அடிப்படை பயிற்சித் தரவைப் பற்றிய சொற்ப விவரங்களை வழங்குகின்றன. சம்பந்தப்பட்ட தரவுத்தொகுப்புகள் பெரியதாகவோ, தனியுரிமமாகவோ, சிறிய க்யூரேஷனுடன் வலையிலிருந்து எடுக்கப்பட்டதாகவோ அல்லது உரிமக் கட்டுப்பாடுகளுக்கு உட்பட்டதாகவோ இருக்கலாம், இது முழு பொது வெளியீட்டை சவாலானதாகவோ அல்லது சாத்தியமற்றதாகவோ ஆக்குகிறது. இருப்பினும், இது பற்றிய விரிவான தகவல்கள் இல்லாமல்:

  • தரவு மூலங்கள்: தகவல் எங்கிருந்து வந்தது? அது முக்கியமாக உரை, படங்கள், குறியீடா? எந்த வலைத்தளங்கள், புத்தகங்கள் அல்லது தரவுத்தளங்களிலிருந்து?
  • தரவு க்யூரேஷன்: தரவு எவ்வாறு வடிகட்டப்பட்டது, சுத்தம் செய்யப்பட்டது மற்றும் செயலாக்கப்பட்டது? தகவலைச் சேர்க்க அல்லது விலக்க என்ன அளவுகோல்கள் பயன்படுத்தப்பட்டன?
  • தரவு பண்புகள்: தரவுக்குள் அறியப்பட்ட சார்புகள் என்ன (எ.கா., மக்கள்தொகை, கலாச்சார, மொழியியல்)? இது எந்த காலகட்டத்தை உள்ளடக்கியது?
  • முன் செயலாக்க படிகள்: பயிற்சிக்கு முன் தரவுக்கு என்ன மாற்றங்கள் பயன்படுத்தப்பட்டன?

…சுயாதீன ஆராய்ச்சியாளர்கள் மாதிரியின் நடத்தையை முழுமையாகப் புரிந்துகொள்வது, அதன் வளர்ச்சியைப் பிரதிபலிப்பது அல்லது அதன் சாத்தியமான சார்புகள் மற்றும் தோல்விப் புள்ளிகளை விமர்சன ரீதியாக மதிப்பிடுவது மிகவும் கடினமாகிறது. இந்த தரவு வெளிப்படைத்தன்மை இல்லாததே, தற்போதைய பல ‘திறந்த மூல’ AI வெளியீடுகள் மென்பொருள் உலகில் நிறுவப்பட்ட உண்மையான திறந்த தன்மையின் உணர்வை, கடிதத்தை இல்லாவிட்டாலும், பூர்த்தி செய்யத் தவறியதற்கான முதன்மைக் காரணமாகும். இதற்கு நேர்மாறாக, Allen Institute for AI இன் OLMo மாதிரி அல்லது LLM360 இன் CrystalCoder போன்ற சமூகத்தால் இயக்கப்படும் முயற்சிகள் போன்ற முன்முயற்சிகள், அவற்றின் தரவு மற்றும் பயிற்சி முறைகள் குறித்து அதிக வெளிப்படைத்தன்மையை வழங்க அதிக ஒருங்கிணைந்த முயற்சிகளை மேற்கொண்டுள்ளன, இது பாரம்பரிய திறந்த மூல மதிப்புகளுடன் மிகவும் ஒத்துப்போகும் உயர் தரத்தை அமைக்கிறது.

'Openwashing': மூலோபாய லேபிளிங் அல்லது ஒழுங்குமுறை தவிர்ப்பு?

அதன் கொள்கைகளை முழுமையாக ஏற்றுக்கொள்ளாத நிறுவனங்களால் ‘திறந்த மூல’ லேபிளை அபகரிப்பது ‘openwashing’ பற்றிய கவலைகளை எழுப்பியுள்ளது. இந்த சொல், தொடர்புடைய வெளிப்படைத்தன்மை மற்றும் அணுகல் நிலைக்கு உறுதியளிக்காமல், பொது உறவுகள் நன்மைகள் அல்லது மூலோபாய நன்மைக்காக திறந்த தன்மையின் நேர்மறையான அர்த்தங்களைப் பயன்படுத்தும் நடைமுறையை விவரிக்கிறது. நிறுவனங்கள் ஏன் இதில் ஈடுபடலாம்? பல காரணிகள் விளையாடக்கூடும். ‘திறந்த மூல’ பிராண்ட் குறிப்பிடத்தக்க நல்லெண்ணத்தைக் கொண்டுள்ளது, இது சமூகம் மற்றும் பகிரப்பட்ட முன்னேற்றத்திற்கான அர்ப்பணிப்பைக் குறிக்கிறது, இது டெவலப்பர்கள் மற்றும் வாடிக்கையாளர்களுக்கு கவர்ச்சிகரமானதாக இருக்கும்.

மேலும், Nature மற்றும் பிற பார்வையாளர்களால் குறிப்பிடப்பட்டபடி, ஒழுங்குமுறை நிலப்பரப்புகள் தற்செயலாக இத்தகைய நடத்தையைத் தூண்டக்கூடும். 2024 இல் இறுதி செய்யப்பட்ட ஐரோப்பிய ஒன்றியத்தின் முக்கிய AI சட்டம், அதிக ஆபத்துள்ள மற்றும் பொது நோக்கத்திற்கான AI அமைப்புகளுக்கு கடுமையான தேவைகளை விதிக்கும் விதிகளைக் கொண்டுள்ளது. இருப்பினும், திறந்த மூல உரிமங்களின் கீழ் வெளியிடப்பட்ட AI மாடல்களுக்கு சாத்தியமான விலக்குகள் அல்லது இலகுவான தேவைகளையும் இது கொண்டுள்ளது. இது ஒரு சாத்தியமான ஓட்டையை உருவாக்குகிறது, அங்கு நிறுவனங்கள் தங்கள் மாதிரிகளை ‘திறந்த மூல’ என்று மூலோபாய ரீதியாக லேபிளிடலாம் - பயிற்சித் தரவு போன்ற முக்கிய கூறுகள் தடைசெய்யப்பட்டிருந்தாலும் கூட - குறிப்பாக ஒழுங்குமுறை தடைகளை வழிநடத்தவும் மேலும் கடுமையான இணக்கக் கடமைகளைத் தவிர்க்கவும்.

ஒழுங்குமுறை நடுவர் மன்றத்திற்கான இந்த சாத்தியம் ஆழ்ந்த கவலையளிக்கிறது. சக்திவாய்ந்த AI அமைப்புகள் பாதுகாப்பு, நேர்மை மற்றும் பொறுப்புணர்வை உறுதி செய்வதை நோக்கமாகக் கொண்ட ஆய்வைத் தவிர்க்க ‘openwashing’ அனுமதித்தால், அது ஒழுங்குமுறையின் நோக்கத்தையே குறைமதிப்பிற்கு உட்படுத்துகிறது. இது விஞ்ஞான சமூகத்தையும் ஒரு ஆபத்தான நிலையில் வைக்கிறது. ஆராய்ச்சியாளர்கள் முற்றிலும் மூடிய வணிக சலுகைகளுடன் ஒப்பிடும்போது அவற்றின் அணுகல் காரணமாக இந்த பெயரளவில் ‘திறந்த’ அமைப்புகளுக்கு ஈர்க்கப்படலாம், ஆனால் அவற்றின் வழிமுறைகள் ஒளிபுகா மற்றும் சரிபார்க்க முடியாத கருவிகளை நம்பியிருப்பதை மட்டுமே காணலாம். இந்த சார்பு விஞ்ஞான ஒருமைப்பாட்டை சமரசம் செய்யும் அபாயத்தை ஏற்படுத்துகிறது, ஆராய்ச்சி மறுஉருவாக்கம் செய்யக்கூடியது, பக்கச்சார்பற்றது மற்றும் உறுதியான, புரிந்துகொள்ளக்கூடிய அடித்தளத்தில் கட்டமைக்கப்பட்டுள்ளது என்பதை உறுதிப்படுத்துவதை கடினமாக்குகிறது. ஒரு பழக்கமான லேபிளின் கவர்ச்சி உண்மையான விஞ்ஞான விசாரணையைத் தடுக்கும் அடிப்படை கட்டுப்பாடுகளை மறைக்கக்கூடும்.

AI யுகத்திற்கான திறந்த தன்மையை மறுவரையறை செய்தல்: OSAID கட்டமைப்பு

AI ஆல் முன்வைக்கப்படும் தனித்துவமான சவால்களுக்கு பாரம்பரிய திறந்த மூல வரையறைகளின் போதாமையை உணர்ந்து, Open Source Initiative (OSI) - திறந்த மூலக் கொள்கைகளின் நீண்டகாலப் பொறுப்பாளர் - ஒரு முக்கியமான உலகளாவிய முயற்சியைத் தொடங்கியுள்ளார். செயற்கை நுண்ணறிவுக்காக பிரத்யேகமாக வடிவமைக்கப்பட்ட தெளிவான, வலுவான வரையறையை நிறுவுவதே அவர்களின் குறிக்கோள்: Open Source AI Definition (OSAID 1.0). இந்த முன்முயற்சி AI இன் சூழலில் ‘திறந்த’ என்பதன் அர்த்தத்தை மீட்டெடுப்பதற்கும், வெளிப்படைத்தன்மை மற்றும் பொறுப்புக்கூறலுக்கான தெளிவான தரங்களை அமைப்பதற்கும் ஒரு முக்கிய படியாகும்.

முன்மொழியப்பட்ட OSAID கட்டமைப்பிற்குள் ஒரு முக்கிய கண்டுபிடிப்பு ‘தரவுத் தகவல்’ என்ற கருத்தாகும். தனியுரிமைக் கவலைகள், பதிப்புரிமைக் கட்டுப்பாடுகள் அல்லது முழுமையான அளவு காரணமாக பெரிய பயிற்சித் தரவுத்தொகுப்புகளின் முழு வெளியீடு பெரும்பாலும் நடைமுறைக்கு மாறானதாகவோ அல்லது சட்டப்பூர்வமாக தடைசெய்யப்பட்டதாகவோ இருக்கலாம் என்பதை ஒப்புக்கொண்டு, OSAID தரவு பற்றிய விரிவான வெளிப்பாட்டைக் கட்டாயப்படுத்துவதில் கவனம் செலுத்துகிறது. டெவலப்பர்கள் இது தொடர்பான விரிவான தகவல்களை வழங்க வேண்டும் என்பதற்கான தேவைகள் இதில் அடங்கும்:

  1. மூலங்கள் மற்றும் கலவை: பயிற்சித் தரவின் தோற்றங்களைத் தெளிவாக அடையாளம் காணுதல்.
  2. பண்புகள்: தரவுக்குள் அறியப்பட்ட அம்சங்கள், வரம்புகள் மற்றும் சாத்தியமான சார்புகளை ஆவணப்படுத்துதல்.
  3. தயாரிப்பு முறைகள்: பயிற்சிக்குத் தரவைச் சுத்தம் செய்தல், வடிகட்டுதல் மற்றும் தயாரிப்பதற்குப் பயன்படுத்தப்படும் செயல்முறைகளை விளக்குதல்.

மூலத் தரவைப் பகிர முடியாவிட்டாலும், இந்த மெட்டாடேட்டாவை வழங்குவது ஆராய்ச்சியாளர்கள் மற்றும் தணிக்கையாளர்கள் AI மாதிரியை வடிவமைத்த காரணிகளைப் பற்றிய முக்கியமான நுண்ணறிவுகளைப் பெற அனுமதிக்கிறது. இது சாத்தியமான சார்புகளைப் பற்றிய சிறந்த புரிதலை எளிதாக்குகிறது, மேலும் தகவலறிந்த இடர் மதிப்பீடுகளை செயல்படுத்துகிறது, மேலும் பிரதிபலிப்பு அல்லது ஒப்பீட்டு ஆய்வுகளை முயற்சிப்பதற்கான அடிப்படையை வழங்குகிறது.

தரவுத் தகவலுக்கு அப்பால், OSI இன் முயற்சி, Open Future போன்ற அமைப்புகளின் வாதத்துடன் சேர்ந்து, ‘தரவு-பொதுவான’ மாதிரியை நோக்கிய ஒரு பரந்த மாற்றத்தை ஊக்குவிக்கிறது. இது AI பயிற்சிக்கான அத்தியாவசிய தரவுத்தொகுப்புகள் மிகவும் வெளிப்படையாகவும் சமமாகவும் நிர்வகிக்கப்பட்டு கிடைக்கப்பெறும் ஒரு எதிர்காலத்தை கற்பனை செய்கிறது, இது AI மேம்பாட்டிற்கான மிகவும் வெளிப்படையான மற்றும் கூட்டு சுற்றுச்சூழல் அமைப்பை வளர்க்கிறது, குறிப்பாக ஆராய்ச்சி சமூகத்திற்குள். OSAID வரையறையானது AI அமைப்புகளை மதிப்பீடு செய்யக்கூடிய தெளிவான அளவுகோலை வழங்குவதை நோக்கமாகக் கொண்டுள்ளது, மேலோட்டமான லேபிள்களுக்கு அப்பால் சென்று திறந்த தன்மைக்கான உண்மையான அர்ப்பணிப்பை மதிப்பிடுகிறது.

ஒரு கூட்டுப் பொறுப்பு: உண்மையான AI வெளிப்படைத்தன்மையை இயக்குதல்

AI இல் உண்மையான திறந்த தன்மையை உறுதி செய்வதற்கான சவாலை வரையறைகளால் மட்டும் தீர்க்க முடியாது; இதற்கு பல பங்குதாரர்களின் ஒருங்கிணைந்த நடவடிக்கை தேவைப்படுகிறது. விஞ்ஞான சமூகம், அதிநவீன AI கருவிகளின் டெவலப்பர்கள் மற்றும் முதன்மை பயனர்கள் என, குறிப்பிடத்தக்க பொறுப்பைக் கொண்டுள்ளது. ஆராய்ச்சியாளர்கள் OSAID 1.0 போன்ற முன்முயற்சிகளுடன் தீவிரமாக ஈடுபட வேண்டும், அதன் கொள்கைகளைப் புரிந்துகொண்டு அவற்றின் தத்தெடுப்புக்கு வாதிட வேண்டும். அவர்கள் பயன்படுத்தக் கருதும் AI மாடல்களின் ‘திறந்த தன்மை’ கூற்றுக்களை அவர்கள் விமர்சன ரீதியாக மதிப்பீடு செய்ய வேண்டும், பயிற்சித் தரவு மற்றும் வழிமுறைகள் குறித்து அதிக வெளிப்படைத்தன்மையை வழங்கும் மாதிரிகளுக்கு முன்னுரிமை அளிக்க வேண்டும், இது வசதியானதாகத் தோன்றும் ஆனால் ஒளிபுகா அமைப்புகளின் கவர்ச்சியை எதிர்ப்பது அவசியமாக இருந்தாலும் கூட. சரிபார்க்கக்கூடிய, மறுஉருவாக்கம் செய்யக்கூடிய AI கருவிகளின் தேவையை வெளியீடுகள், மாநாடுகள் மற்றும் நிறுவன விவாதங்களில் குரல் கொடுப்பது மிக முக்கியம்.

பொது நிதி நிறுவனங்கள் மற்றும் அரசாங்க அமைப்புகளுக்கும் ஒரு முக்கியமான பங்கு உள்ளது. மானியத் தேவைகள் மற்றும் கொள்முதல் கொள்கைகள் மூலம் அவை கணிசமான செல்வாக்கைக் கொண்டுள்ளன. அமெரிக்க தேசிய சுகாதார நிறுவனங்கள் (NIH) போன்ற நிறுவனங்கள், அதன் நிதியுதவி மூலம் உருவாக்கப்பட்ட ஆராய்ச்சித் தரவுகளுக்கு திறந்த உரிமத்தைக் கட்டாயப்படுத்துகின்றன, இது ஒரு மதிப்புமிக்க முன்னுதாரணத்தை வழங்குகிறது. இதேபோல், பொது நிர்வாக அமைப்புகள் திறந்த மூல மென்பொருளுக்கு முன்னுரிமை அளிக்க வேண்டும் என்ற இத்தாலியின் தேவை போன்ற எடுத்துக்காட்டுகள், கொள்கை எவ்வாறு தத்தெடுப்பை இயக்க முடியும் என்பதைக் காட்டுகின்றன. இந்தக் கொள்கைகளை AI துறையிலும் நீட்டிக்க முடியும் மற்றும் நீட்டிக்க வேண்டும். அரசாங்கங்களும் நிதி நிறுவனங்களும் கருத்தில் கொள்ள வேண்டும்:

  • பொது நிதியுதவி பெறும் AI ஆராய்ச்சி மற்றும் மேம்பாட்டிற்கு வலுவான திறந்த மூல AI தரங்களுக்கு (OSAID போன்றவை) இணங்குவதைக் கட்டாயப்படுத்துதல்.
  • ஆராய்ச்சி-மையப்படுத்தப்பட்ட AI மாதிரிகளைப் பயிற்றுவிப்பதற்கு ஏற்ற, உண்மையான திறந்த, உயர்தர தரவுத்தொகுப்புகளை - ஒரு ‘தரவுப் பொதுவான’ - உருவாக்குவதில் முதலீடு செய்தல்.
  • EU AI சட்டம் போன்ற ஒழுங்குமுறைகள், ‘openwashing’ ஐத் தடுக்கும் மற்றும் அனைத்து சக்திவாய்ந்த AI அமைப்புகளையும் அவற்றின் உரிமக் கோரிக்கைகளைப் பொருட்படுத்தாமல் பொறுப்புக்கூற வைக்கும் வகையில் செயல்படுத்தப்படுவதை உறுதி செய்தல்.

இறுதியில், ஆராய்ச்சியில் AI இன் எதிர்காலத்தைப் பாதுகாக்க ஒரு ஐக்கிய முன்னணி தேவைப்படுகிறது. விஞ்ஞானிகள் வெளிப்படைத்தன்மையைக் கோர வேண்டும், நிறுவனங்கள் உண்மையான திறந்த தன்மைக்கு முன்னுரிமை அளிக்கும் கொள்கைகளைச் செயல்படுத்த வேண்டும், மேலும் கட்டுப்பாட்டாளர்கள் ‘திறந்த மூலம்’ என்ற லேபிள் பொறுப்புக்கூறலுக்கான அர்த்தமுள்ள அர்ப்பணிப்பைக் குறிக்கிறது என்பதை உறுதிப்படுத்த வேண்டும், வசதியான தப்பிக்கும் வழி அல்ல. இந்த கூட்டு முயற்சிகள் இல்லாமல், அறிவியல் கண்டுபிடிப்புக்கான AI இன் மகத்தான ஆற்றல், மூடிய, தனியுரிம அமைப்புகளால் ஆதிக்கம் செலுத்தும் ஒரு நிலப்பரப்பால் சமரசம் செய்யப்படும் அபாயத்தில் உள்ளது, இது விஞ்ஞான முன்னேற்றத்தின் கூட்டு மற்றும் சரிபார்க்கக்கூடிய தன்மையை அடிப்படையில் குறைமதிப்பிற்கு உட்படுத்துகிறது. எதிர்கால ஆராய்ச்சியின் ஒருமைப்பாடு சமநிலையில் தொங்குகிறது.