‘திறந்த மூல’ (open source) என்ற சொல் ஒரு காலத்தில் தெளிவான அர்த்தத்துடன் ஒலித்தது, பகிரப்பட்ட அறிவு மற்றும் கூட்டு முன்னேற்றத்திற்கான வாக்குறுதியாக இருந்தது, இது எண்ணற்ற அறிவியல் மற்றும் தொழில்நுட்ப முன்னேற்றங்களுக்கு உந்துதலாக அமைந்தது. இது சமூகங்கள் ஒன்றாகக் கட்டமைப்பது, ஒருவருக்கொருவர் பணிகளை ஆய்வு செய்வது, மற்றும் வரைபடங்கள் இலவசமாகக் கிடைத்ததால் முன்னோடிகளின் தோள்களில் நிற்பது போன்ற படங்களை மனதில் கொண்டு வந்தது. இப்போது, செயற்கை நுண்ணறிவு (Artificial Intelligence - AI) உலகில் பயணிக்கும்போது, அந்த சொல் மேலும் மேலும் நழுவுவதாகத் தோன்றுகிறது. Nature இதழின் பக்கங்களில் சுட்டிக்காட்டப்பட்டதும், ஆய்வகங்கள் மற்றும் நிர்வாக அறைகளில் கிசுகிசுக்கப்பட்டதும் போல, AI தங்க வேட்டையில் ஈடுபட்டுள்ள கவலைக்குரிய எண்ணிக்கையிலான நிறுவனங்கள், தங்களின் படைப்புகளை ‘திறந்த மூல’ என்ற போர்வையில் மூடி மறைத்து, உண்மையான முக்கிய கூறுகளை பூட்டி வைத்துள்ளன. இது வெறும் சொற்பொருள் சார்ந்த விவாதம் அல்ல; இது அறிவியல் நேர்மையின் அடித்தளத்தையே அரித்து, எதிர்கால கண்டுபிடிப்புகளின் பாதையை மறைக்க அச்சுறுத்தும் ஒரு நடைமுறையாகும். ஆராய்ச்சி சமூகம், இதில் அதிகம் பெறவோ அல்லது இழக்கவோ கூடிய குழு, இந்த ஏமாற்று வேலையை அது என்னவென்று அங்கீகரித்து, நாம் நீண்ட காலமாக நம்பியிருக்கும் வெளிப்படைத்தன்மை மற்றும்மறுஉருவாக்கம் (reproducibility) ஆகியவற்றின் கொள்கைகளை உண்மையாக உள்ளடக்கிய AI அமைப்புகளுக்காக வலுவாக வாதிட வேண்டும்.
திறந்த தன்மையின் பொற்காலம்: அச்சுறுத்தலுக்கு உள்ளான ஒரு மரபு
பல தசாப்தங்களாக, திறந்த மூல இயக்கம் அறிவியல் முன்னேற்றத்தின் அறியப்படாத நாயகனாக இருந்து வருகிறது. புள்ளிவிவர மாயாஜாலத்திற்கான R Studio அல்லது திரவ இயக்கவியலை மாதிரியாக்குவதற்கான OpenFOAM போன்ற பழக்கமான கருவிகளுக்கு அப்பால் சிந்தியுங்கள். இணையத்தின் பெரும் பகுதிகள் மற்றும் அறிவியல் கணினி தொகுப்புகளை இயக்கும் Linux போன்ற அடித்தள அமைப்புகள், அல்லது கூட்டு மென்பொருள் மேம்பாட்டிற்கு ஒரு சான்றாக விளங்கும் Apache வலை சேவையகம் ஆகியவற்றைக் கவனியுங்கள். தத்துவம் நேரடியானது: மூலக் குறியீட்டிற்கான அணுகலை வழங்குதல், அனுமதிக்கும் உரிமங்களின் கீழ் மாற்றம் மற்றும் மறுவிநியோகம் செய்ய அனுமதித்தல், மற்றும் மேம்பாடுகள் அனைவருக்கும் பயனளிக்கும் ஒரு உலகளாவிய சூழலை வளர்ப்பது.
இது வெறும் பரோபகாரம் அல்ல; இது நடைமுறை மேதைத்தனம். திறந்த தன்மை கண்டுபிடிப்பை துரிதப்படுத்தியது. ஆராய்ச்சியாளர்கள் சோதனைகளை மீண்டும் செய்ய முடிந்தது, கண்டுபிடிப்புகளை சரிபார்க்க முடிந்தது, மற்றும் சக்கரத்தை மீண்டும் கண்டுபிடிக்காமல் அல்லது ஒளிபுகா தனியுரிம அமைப்புகளில் செல்லாமல் ஏற்கனவே உள்ள பணிகளை உருவாக்க முடிந்தது. இது நம்பிக்கையை வளர்த்தது, ஏனெனில் உள் செயல்பாடுகள் ஆய்வுக்குக் கிடைத்தன, பிழைகளைக் கண்டறிந்து கூட்டாக சரிசெய்ய அனுமதித்தது. இது அணுகலை ஜனநாயகப்படுத்தியது, உலகெங்கிலும் உள்ள விஞ்ஞானிகள் மற்றும் டெவலப்பர்கள், நிறுவன இணைப்பு அல்லது பட்ஜெட்டைப் பொருட்படுத்தாமல், அதிநவீன பணிகளில் பங்கேற்க உதவியது. பகிரப்பட்ட அணுகல் மற்றும் பரஸ்பர ஆய்வின் அடிப்படையில் கட்டமைக்கப்பட்ட இந்த கூட்டு மனப்பான்மை, அறிவியல் முறையிலேயே ஆழமாகப் பதிந்து, வலிமையை உறுதிசெய்து, பல்வேறு துறைகளில் விரைவான முன்னேற்றத்தை வளர்த்தது. பயன்படுத்தப்படும் கருவிகளைப் பிரித்து, புரிந்துகொண்டு, மாற்றியமைக்கும் திறனே மிக முக்கியமானது. இது மென்பொருளைப் பயன்படுத்துவது மட்டுமல்ல; அது எப்படி வேலை செய்கிறது என்பதைப் புரிந்துகொள்வது, ஒரு குறிப்பிட்ட அறிவியல் பணிக்கு அதன் பொருத்தத்தை உறுதி செய்வது, மற்றும் கூட்டு அறிவுத் தொகுப்பிற்கு மீண்டும் பங்களிப்பது பற்றியது. இந்த நற்பண்பு சுழற்சி முன்னோடியில்லாத வேகத்தில் புதுமையைத் தூண்டியது.
AI-யின் தரவு சார்பு: ‘குறியீடு தான் ராஜா’ ஏன் போதாது
பெரிய அளவிலான செயற்கை நுண்ணறிவின் சகாப்தத்திற்குள் நுழையுங்கள், குறிப்பாக அதிக கவனத்தையும் முதலீட்டையும் ஈர்க்கும் அடித்தள மாதிரிகள் (foundational models). இங்கே, முதன்மையாக மூலக் குறியீட்டை மையமாகக் கொண்ட பாரம்பரிய திறந்த மூல முன்னுதாரணம், ஒரு அடிப்படை பொருத்தமின்மையை எதிர்கொள்கிறது. ஒரு AI மாதிரியை உருவாக்கப் பயன்படுத்தப்படும் வழிமுறைகள் மற்றும் குறியீடு நிச்சயமாக படத்தின் ஒரு பகுதியாக இருந்தாலும், அவை முழு கதையிலிருந்து வெகு தொலைவில் உள்ளன. நவீன AI, குறிப்பாக ஆழ் கற்றல் மாதிரிகள் (deep learning models), தரவுகளை பெருமளவில் உட்கொள்பவை. பயிற்சித் தரவு (training data) ஒரு உள்ளீடு மட்டுமல்ல; இது மாதிரியின் திறன்கள், சார்புகள் மற்றும் வரம்புகளின் முதன்மை நிர்ணயம் என்று வாதிடலாம்.
மாதிரியின் குறியீட்டை வெளியிடுவது, அல்லது அதன் இறுதி பயிற்சி செய்யப்பட்ட அளவுருக்களை (‘எடைகள்’ - weights) வெளியிடுவது, பயிற்சிக்கு பயன்படுத்தப்பட்ட பிரம்மாண்டமான தரவுத்தொகுப்புகளுக்கான அர்த்தமுள்ள அணுகலை வழங்காமல் அல்லது விரிவான தகவல்களை வழங்காமல் இருப்பது, ஒருவருக்கு காரின் சாவியைக் கொடுப்பது போன்றது, ஆனால் அது என்ன வகையான எரிபொருளை எடுக்கிறது, எங்கே ஓட்டப்பட்டது, அல்லது இயந்திரம் உண்மையில் எப்படி இணைக்கப்பட்டது என்று சொல்ல மறுப்பது போன்றது. நீங்கள் அதை ஓட்டலாம், ஆனால் அதன் செயல்திறன் வினோதங்களைப் புரிந்துகொள்வதற்கும், சாத்தியமான சிக்கல்களைக் கண்டறிவதற்கும், அல்லது புதிய பயணங்களுக்கு நம்பகத்தன்மையுடன் மாற்றுவதற்கும் உங்களுக்கு வரையறுக்கப்பட்ட திறன் உள்ளது.
மேலும், இந்த மாதிரிகளை புதிதாகப் பயிற்றுவிக்கத் தேவையான கணினி வளங்கள் (computational resources) மகத்தானவை, பெரும்பாலும் ஒரு பயிற்சி ஓட்டத்திற்கு மில்லியன் கணக்கான டாலர்கள் செலவாகும். இது மற்றொரு தடையை உருவாக்குகிறது. குறியீடு மற்றும் தரவு முழுமையாகக் கிடைத்தாலும் கூட, ஒரு சில நிறுவனங்கள் மட்டுமே பயிற்சி செயல்முறையை மீண்டும் செய்ய உள்கட்டமைப்பைக் கொண்டுள்ளன. இந்த யதார்த்தம் பாரம்பரிய மென்பொருளுடன் ஒப்பிடும்போது இயக்கவியலை அடிப்படையில் மாற்றுகிறது, அங்கு குறியீட்டைத் தொகுப்பது பொதுவாக பெரும்பாலான டெவலப்பர்கள் அல்லது ஆராய்ச்சியாளர்களுக்கு எட்டக்கூடியதாக இருக்கும். AI-க்கு, உண்மையான மறுஉருவாக்கம் மற்றும் மறுபயிற்சி மூலம் பரிசோதனை செய்யும் திறன் பெரும்பாலும் எட்டமுடியாததாகவே உள்ளது, கூறுகள் ‘திறந்த’ என்று பெயரிடப்பட்டாலும் கூட. எனவே, குறியீட்டிற்காக உருவாக்கப்பட்ட பழைய திறந்த மூல வரையறைகளை வெறுமனே பயன்படுத்துவது, இந்த புதிய, தரவு மைய மற்றும் கணினி-தீவிர களத்தின் தேவைகளைப் பிடிக்கவில்லை.
‘ஓப்பன்வாஷிங்’ (Openwashing): ஆட்டுத்தோல் போர்த்திய ஓநாய்
பாரம்பரிய திறந்த மூலக் கருத்துக்களுக்கும் AI வளர்ச்சியின் யதார்த்தங்களுக்கும் இடையிலான இந்த இடைவெளி ‘ஓப்பன்வாஷிங்’ (openwashing) எனப்படும் ஒரு நிகழ்வுக்கு வளமான நிலத்தை உருவாக்கியுள்ளது. நிறுவனங்கள் ஆர்வத்துடன் தங்கள் AI மாதிரிகளில் ‘திறந்த மூல’ லேபிளை ஒட்டுகின்றன, அந்தச் சொல்லுடன் தொடர்புடைய பொது உறவுகள் நன்மைகள் மற்றும் நல்லெண்ணத்தைப் பெறுகின்றன, அதே நேரத்தில் உண்மையான திறந்த தன்மையின் உணர்வை, அதன் கடுமையான (மற்றும் விவாதத்திற்குரிய வகையில் காலாவதியான) எழுத்தை இல்லாவிட்டாலும், காட்டிக்கொடுக்கும் உரிமங்கள் அல்லது அணுகல் கட்டுப்பாடுகளைப் பயன்படுத்துகின்றன.
நடைமுறையில் இது எப்படி இருக்கும்?
- தரவு இல்லாமல் குறியீடு வெளியீடு: ஒரு நிறுவனம் மாதிரியின் கட்டமைப்பு குறியீடு மற்றும் ஒருவேளை முன் பயிற்சி பெற்ற எடைகளை வெளியிடலாம், மற்றவர்கள் மாதிரியை ‘உள்ளபடியே’ பயன்படுத்த அல்லது சிறிய தரவுத்தொகுப்புகளில் அதைச் சரிசெய்ய (fine-tune) அனுமதிக்கிறது. இருப்பினும், மாதிரியின் முக்கிய திறன்களை வரையறுக்கும் இரகசிய மூலப்பொருளான - பாரிய, அடித்தள பயிற்சி தரவுத்தொகுப்பு - தனியுரிமமாகவும் மறைக்கப்பட்டதாகவும் உள்ளது.
- கட்டுப்பாடான உரிமம்: மாதிரிகள் முதல் பார்வையில் திறந்ததாகத் தோன்றும் உரிமங்களின் கீழ் வெளியிடப்படலாம், ஆனால் வணிகப் பயன்பாட்டைக் கட்டுப்படுத்தும், சில சூழ்நிலைகளில் பயன்படுத்தலைத் தடுக்கும், அல்லது குறிப்பிட்ட வகையான மாற்றம் அல்லது பகுப்பாய்வைத் தடைசெய்யும் உட்பிரிவுகளைக் கொண்டிருக்கலாம். இந்த கட்டுப்பாடுகள் பொதுவாக திறந்த மூல மென்பொருளுடன் தொடர்புடைய சுதந்திரங்களுக்கு முரணானவை.
- தெளிவற்ற தரவு வெளிப்படுத்தல்: தரவு மூலங்கள், சேகரிப்பு முறைகள், சுத்திகரிப்பு செயல்முறைகள் மற்றும் சாத்தியமான சார்புகள் பற்றிய விரிவான தகவல்களுக்குப் பதிலாக, நிறுவனங்கள் தெளிவற்ற விளக்கங்களை வழங்கலாம் அல்லது முக்கியமான விவரங்களை முற்றிலுமாகத் தவிர்க்கலாம். இந்த ‘தரவு வெளிப்படைத்தன்மை’ (data transparency) இல்லாமை மாதிரியின் நம்பகத்தன்மை அல்லது நெறிமுறை தாக்கங்களை முழுமையாக மதிப்பிடுவதை சாத்தியமற்றதாக்குகிறது.
இது போன்ற நடைமுறைகளில் ஏன் ஈடுபட வேண்டும்? உந்துதல்கள் பலதரப்பட்டதாக இருக்கலாம். ‘திறந்த மூலத்தின்’ நேர்மறையான அர்த்தங்கள் திறமையாளர்களை ஈர்ப்பதற்கும், டெவலப்பர் சமூகங்களை உருவாக்குவதற்கும் (கட்டுப்படுத்தப்பட்டாலும் கூட), மற்றும் சாதகமான பத்திரிகை செய்திகளை உருவாக்குவதற்கும் மறுக்கமுடியாத அளவிற்கு மதிப்புமிக்கவை. மேலும் இழிந்த முறையில், Nature குறிப்பிடுவது போல, ஒழுங்குமுறை ஊக்கத்தொகைகள் இருக்கலாம். உதாரணமாக, ஐரோப்பிய ஒன்றியத்தின் விரிவான 2024 AI சட்டம், திறந்த மூலமாக வகைப்படுத்தப்பட்ட அமைப்புகளுக்கு சாத்தியமான விலக்குகள் அல்லது இலகுவான தேவைகளை உள்ளடக்கியது. லேபிளை மூலோபாய ரீதியாகப் பயன்படுத்துவதன் மூலம், சில நிறுவனங்கள் சிக்கலான ஒழுங்குமுறை நிலப்பரப்புகளில் குறைந்த உராய்வுடன் செல்ல நம்பலாம், சக்திவாய்ந்த, பொது-நோக்க AI அமைப்புகளுக்காக உத்தேசிக்கப்பட்ட ஆய்வைத் தவிர்க்கலாம். இந்த மூலோபாய பிராண்டிங் பயிற்சி, திறந்த மூல இயக்கத்தின் வரலாற்று நல்லெண்ணத்தை சுரண்டுகிறது, அதே நேரத்தில் பொறுப்பான AI பயன்படுத்தலை உறுதி செய்வதற்கான முயற்சிகளை குறைமதிப்பிற்கு உட்படுத்தக்கூடும்.
திறந்த தன்மையின் ஒரு ஸ்பெக்ட்ரம்: காட்சிப் பொருட்களை ஆய்வு செய்தல்
AI-யில் திறந்த தன்மை என்பது ஒரு இருநிலை நிலை அல்ல என்பதை அங்கீகரிப்பது முக்கியம்; அது ஒரு ஸ்பெக்ட்ரம் மீது உள்ளது. இருப்பினும், தற்போதைய லேபிளிங் நடைமுறைகள் பெரும்பாலும் ஒரு குறிப்பிட்ட மாதிரி அந்த ஸ்பெக்ட்ரம் மீது எங்கு அமர்ந்திருக்கிறது என்பதை மறைக்கின்றன.
இந்த சூழலில் அடிக்கடி விவாதிக்கப்படும் சில முக்கிய எடுத்துக்காட்டுகளைக் கவனியுங்கள்:
- Meta-வின் Llama தொடர்: Meta, Llama மாதிரிகளுக்கான எடைகள் மற்றும் குறியீட்டை வெளியிட்டாலும், ஆரம்பத்தில் அணுகலுக்கு விண்ணப்பம் தேவைப்பட்டது, மேலும் உரிமத்தில் கட்டுப்பாடுகள் இருந்தன, குறிப்பாக மிகப் பெரிய நிறுவனங்கள் மற்றும் குறிப்பிட்ட பயன்பாடுகளால் பயன்படுத்துவது தொடர்பாக. முக்கியமாக, அடிப்படை பயிற்சித் தரவு வெளியிடப்படவில்லை, இது முழுமையான மறுஉருவாக்கம் மற்றும் அதன் பண்புகளின் ஆழமான பகுப்பாய்வைக் கட்டுப்படுத்தியது. பிந்தைய பதிப்புகள் விதிமுறைகளை சரிசெய்திருந்தாலும், தரவு ஒளிபுகாநிலையின் முக்கிய பிரச்சினை பெரும்பாலும் உள்ளது.
- Microsoft-ன் Phi-2: Microsoft, Phi-2 ஐ ஒரு ‘திறந்த மூல’ சிறிய மொழி மாதிரியாக வழங்கியது. மாதிரி எடைகள் கிடைத்தாலும், உரிமத்தில் குறிப்பிட்ட பயன்பாட்டுக் கட்டுப்பாடுகள் உள்ளன, மேலும் அதன் பயிற்சித் தரவுத்தொகுப்பு பற்றிய விரிவான தகவல்கள், அதன் திறன்கள் மற்றும் சாத்தியமான சார்புகளைப் புரிந்துகொள்வதற்கு முக்கியமானவை (குறிப்பாக ‘செயற்கை’ தரவுகளில் பயிற்சி பெற்றதைக் கருத்தில் கொண்டு), முழுமையாக வெளிப்படையாக இல்லை.
- Mistral AI-யின் Mixtral: ஒரு முக்கிய ஐரோப்பிய AI ஸ்டார்ட்அப் வெளியிட்ட இந்த மாதிரி, அதன் செயல்திறனுக்காக கவனத்தைப் பெற்றது. கூறுகள் அனுமதிக்கும் Apache 2.0 உரிமத்தின் கீழ் வெளியிடப்பட்டாலும் (குறியீடு/எடைகளுக்கான உண்மையான திறந்த உரிமம்), பயிற்சித் தரவு கலவை மற்றும் க்யூரேஷன் செயல்முறை தொடர்பான முழுமையான வெளிப்படைத்தன்மை குறைவாகவே உள்ளது, இது ஆழமான அறிவியல் ஆய்வைத் தடுக்கிறது.
பாரம்பரிய திறந்த மூலக் கொள்கைகளுடன் அதிக சீரமைப்பிற்காக பாடுபடும் முயற்சிகளுடன் இவற்றை ஒப்பிடுக:
- Allen Institute for AI-யின் OLMo: இந்த திட்டம் வெளிப்படையாக ஒரு உண்மையான திறந்த மொழி மாதிரியை உருவாக்குவதை நோக்கமாகக் கொண்டது, மாதிரி எடைகள் மற்றும் குறியீட்டை மட்டுமல்ல, பயிற்சித் தரவு (Dolma தரவுத்தொகுப்பு) மற்றும் விரிவான பயிற்சி பதிவுகளையும் வெளியிடுவதற்கு முன்னுரிமை அளித்தது. இந்த அர்ப்பணிப்பு பரந்த ஆராய்ச்சி சமூகத்தால் முன்னோடியில்லாத அளவிலான மறுஉருவாக்கம் மற்றும் பகுப்பாய்வை அனுமதிக்கிறது.
- LLM360-ன் CrystalCoder: இந்த சமூகம் சார்ந்த முயற்சி இதேபோல் மாதிரி மேம்பாட்டு வாழ்க்கைச் சுழற்சியின் அனைத்து கூறுகளையும் வெளியிடுவதை வலியுறுத்துகிறது, இதில் இடைநிலை சோதனைச் சாவடிகள் (intermediate checkpoints) மற்றும் தரவு மற்றும் பயிற்சி செயல்முறை பற்றிய விரிவான ஆவணங்கள் அடங்கும், இது கார்ப்பரேட் வெளியீடுகளில் பெரும்பாலும் காணப்படாத வெளிப்படைத்தன்மை அளவை வளர்க்கிறது.
இந்த மாறுபட்ட எடுத்துக்காட்டுகள் AI-யில் உண்மையான திறந்த தன்மை சாத்தியம் என்பதை எடுத்துக்காட்டுகின்றன, ஆனால் அதற்கு குறியீடு அல்லது எடைகளை வெளியிடுவதைத் தாண்டிய ஒரு திட்டமிட்ட அர்ப்பணிப்பு தேவைப்படுகிறது. இது தரவு மற்றும் செயல்முறை பற்றிய வெளிப்படைத்தன்மையைக் கோருகிறது, அதனுடன் வரும் ஆய்வை ஏற்றுக்கொள்கிறது. ‘ஓப்பன்வாஷிங்’ மூலம் வளர்க்கப்படும் தற்போதைய தெளிவின்மை, எந்தக் கருவிகள் திறந்த அறிவியல் விசாரணையை உண்மையாக ஆதரிக்கின்றன என்பதை ஆராய்ச்சியாளர்கள் கண்டறிவதை கடினமாக்குகிறது.
நம்பிக்கையின் அரிப்பு: அறிவியல் நேர்மை ஆபத்தில்
இந்த பரவலான ‘ஓப்பன்வாஷிங்’-ன் தாக்கங்கள் வெறும் பிராண்டிங்கிற்கு அப்பால் நீண்டு செல்கின்றன. ஆராய்ச்சியாளர்கள் AI மாதிரிகளை நம்பியிருக்கும்போது, அவற்றின் உள் செயல்பாடுகள், குறிப்பாக அவை பயிற்சி பெற்ற தரவு, ஒளிபுகாவாக இருக்கும்போது, அது அறிவியல் முறையின் இதயத்தைத் தாக்குகிறது.
- மறுஉருவாக்கம் குறைமதிப்பிற்கு உட்படுத்தப்படுகிறது: அறிவியல் செல்லுபடியாகும் தன்மையின் ஒரு மூலக்கல்லானது, சுயாதீன ஆராய்ச்சியாளர்கள் முடிவுகளை மீண்டும் உருவாக்கும் திறன் ஆகும். பயிற்சித் தரவு மற்றும் சரியான பயிற்சி முறைகள் அறியப்படாவிட்டால், உண்மையான பிரதிபலிப்பு சாத்தியமற்றதாகிறது. ஆராய்ச்சியாளர்கள் முன் பயிற்சி பெற்ற மாதிரியைப் பயன்படுத்தலாம், ஆனால் அவர்கள் அதன் கட்டமைப்பை சரிபார்க்கவோ அல்லது மறைக்கப்பட்ட தரவிலிருந்து பெறப்பட்ட அதன் அடிப்படை பண்புகளை ஆராயவோ முடியாது.
- சரிபார்ப்பு தடுக்கப்படுகிறது: விஞ்ஞானிகள் ஒரு மாதிரியின் வெளியீடுகளை எப்படி நம்ப முடியும், அது கற்றுக்கொண்ட தரவை அவர்களால் ஆய்வு செய்ய முடியாவிட்டால்? பயிற்சித் தரவில் பதிக்கப்பட்ட மறைக்கப்பட்ட சார்புகள், தவறுகள் அல்லது நெறிமுறை கவலைகள் தவிர்க்க முடியாமல் மாதிரியின் நடத்தையில் வெளிப்படும், ஆனாலும் வெளிப்படைத்தன்மை இல்லாமல், இந்த குறைபாடுகளைக் கண்டறிவது, கண்டறிவது அல்லது தணிப்பது கடினம். அறிவியல் கண்டுபிடிப்புக்கு இத்தகைய கருப்புப் பெட்டிகளைப் பயன்படுத்துவது ஏற்றுக்கொள்ள முடியாத அளவிலான நிச்சயமற்ற தன்மையை அறிமுகப்படுத்துகிறது.
- புதுமை நசுக்கப்படுகிறது: அறிவியல் முந்தைய பணிகளை அடிப்படையாகக் கொண்டு முன்னேறுகிறது. அடித்தள மாதிரிகள் கட்டுப்பாடுகளுடன் அல்லது தேவையான வெளிப்படைத்தன்மை இல்லாமல் (குறிப்பாக தரவு தொடர்பாக) வெளியிடப்பட்டால், மற்றவர்கள் புதுமைப்படுத்துவதற்கும், மாற்று பயிற்சி முறைகளுடன் பரிசோதனை செய்வதற்கும், அல்லது அசல் படைப்பாளிகள் கற்பனை செய்யாத வழிகளில் நாவல் அறிவியல் பயன்பாடுகளுக்கு மாதிரிகளை மாற்றியமைப்பதற்கும் உள்ள திறனைத் தடுக்கிறது. முன்னேற்றம் இந்த அரை-ஒளிபுகா அமைப்புகளின் வழங்குநர்களால் கட்டுப்படுத்தப்படுகிறது.
மூடிய அல்லது பகுதியளவு மூடிய கார்ப்பரேட் அமைப்புகளை நம்பியிருப்பது, ஆராய்ச்சியாளர்களை செயலில் பங்கேற்பாளர்கள் மற்றும் புதுமையாளர்களாக இருப்பதற்குப் பதிலாக செயலற்ற நுகர்வோர் பாத்திரத்திற்குத் தள்ளுகிறது. இது முக்கியமான அறிவியல் உள்கட்டமைப்பு ஒரு சில பெரிய நிறுவனங்களால் கட்டுப்படுத்தப்படும் ஒரு எதிர்காலத்தை உருவாக்கும் அபாயத்தை ஏற்படுத்துகிறது, இது திறந்த அறிவியல் விசாரணையின் தேவைகளை விட வணிக நலன்களுக்கு முன்னுரிமை அளிக்கக்கூடும். வெளிப்படைத்தன்மையின் இந்த அரிப்பு நேரடியாக நவீன ஆராய்ச்சியை ஆதரிக்கும் கருவிகள் மீதான நம்பிக்கையின் அரிப்பாக மொழிபெயர்க்கிறது.
சந்தை செறிவு மற்றும் புதுமை மீதான குளிர்விக்கும் விளைவு
அறிவியல் நடைமுறையில் உடனடி தாக்கத்திற்கு அப்பால், AI-யில் போலி திறந்த மூலத்தின் பரவல் குறிப்பிடத்தக்க பொருளாதார மற்றும் சந்தை தாக்கங்களைக் கொண்டுள்ளது. பெரிய அடித்தள மாதிரிகளின் வளர்ச்சிக்கு குறிப்பிடத்தக்க நிபுணத்துவம் மட்டுமல்ல, பரந்த தரவுத்தொகுப்புகள் மற்றும் மகத்தான கணினி சக்திக்கும் அணுகல் தேவைப்படுகிறது - இந்த வளங்கள் பெரிய தொழில்நுட்ப நிறுவனங்களால் விகிதாசாரமற்ற முறையில் கையாளப்படுகின்றன.
இந்த நிறுவனங்கள் ‘திறந்த மூல’ பதாகையின் கீழ் மாதிரிகளை வெளியிட்டு, ஆனால் முக்கியமான பயிற்சித் தரவின் மீதான கட்டுப்பாட்டைத் தக்க வைத்துக் கொள்ளும்போது அல்லது கட்டுப்பாடான உரிமங்களை விதிக்கும்போது, அது ஒரு சமமற்ற விளையாட்டு மைதானத்தை உருவாக்குகிறது.
- நுழைவுத் தடைகள்: ஸ்டார்ட்அப்கள் மற்றும் சிறிய ஆராய்ச்சி ஆய்வகங்களுக்கு புதிதாக ஒப்பிடக்கூடிய அடித்தள மாதிரிகளை உருவாக்க வளங்கள் இல்லை. பதவியில் இருப்பவர்களால் வெளியிடப்பட்ட ‘திறந்த’ மாதிரிகள் நிபந்தனைகளுடன் (வணிக பயன்பாட்டுக் கட்டுப்பாடுகள் அல்லது ஆழமான மாற்றத்தைத் தடுக்கும் தரவு ஒளிபுகாநிலை போன்றவை) வந்தால், இந்த சிறிய நிறுவனங்கள் திறம்பட போட்டியிடுவதற்கும் அல்லது அதன் மேல் உண்மையான புதுமையான பயன்பாடுகளை உருவாக்குவதற்கும் உள்ள திறனைக் கட்டுப்படுத்துகிறது.
- பதவியில் இருப்பவர்களை வலுப்படுத்துதல்: ‘ஓப்பன்வாஷிங்’ ஒரு மூலோபாய அகழியாக செயல்பட முடியும். பயனுள்ள ஆனால் உண்மையாக திறந்ததாக இல்லாத மாதிரிகளை வெளியிடுவதன் மூலம், பெரிய நிறுவனங்கள் தங்கள் தொழில்நுட்பத்தைச் சார்ந்திருக்கும் சூழல்களை வளர்க்க முடியும், அதே நேரத்தில் போட்டியாளர்கள் தங்கள் முக்கிய சொத்துக்களை (தரவு மற்றும் செம்மைப்படுத்தப்பட்ட பயிற்சி செயல்முறைகள்) முழுமையாகப் பிரதிபலிப்பதைத் தடுக்கின்றன அல்லது கணிசமாக மேம்படுத்துவதைத் தடுக்கின்றன. இது திறந்த தன்மை போல் தெரிகிறது ஆனால் ஒரு கட்டுப்படுத்தப்பட்ட தள மூலோபாயத்திற்கு நெருக்கமாக செயல்படுகிறது.
- அணுகுமுறைகளின் பன்முகத்தன்மை குறைதல்: புதுமை ஒரு சில ஆதிக்கம் செலுத்தும், அரை-ஒளிபுகா அடித்தள மாதிரிகளை அதிகமாக நம்பியிருந்தால், அது AI வளர்ச்சியின் ஒரே மாதிரியான தன்மைக்கு வழிவகுக்கும், சிறிய, சுயாதீன குழுக்கள் களம் உண்மையாக திறந்திருந்தால் ஆராயக்கூடிய மாற்று கட்டமைப்புகள், பயிற்சி முன்னுதாரணங்கள் அல்லது தரவு உத்திகளைப் புறக்கணிக்கக்கூடும்.
உண்மையான திறந்த மூலமானது வரலாற்று ரீதியாக போட்டி மற்றும் விநியோகிக்கப்பட்ட புதுமைக்கான ஒரு சக்திவாய்ந்த இயந்திரமாக இருந்து வருகிறது. AI-யில் தற்போதைய போக்கு அதிகாரத்தை மையப்படுத்தி, திறந்த ஒத்துழைப்பு வளர்க்க வேண்டிய இயக்கத்தையே நசுக்கும் அபாயத்தை ஏற்படுத்துகிறது, இது ஒரு குறைவான துடிப்பான மற்றும் அதிக மையப்படுத்தப்பட்ட கட்டுப்பாட்டில் உள்ள AI நிலப்பரப்பிற்கு வழிவகுக்கும்.
ஒழுங்குமுறை குருட்டுப் புள்ளிகள் மற்றும் நெறிமுறை இறுக்கமான கயிறு
‘ஓப்பன்வாஷிங்’ ஒழுங்குமுறை ஓட்டைகளை சுரண்டுவதற்கான சாத்தியம், குறிப்பாக EU AI சட்டம் போன்ற கட்டமைப்புகள் தொடர்பாக, நெருக்கமான ஆய்வுக்கு தகுதியானது. இந்த சட்டம் AI அமைப்புகளுக்கு இடர் அடிப்படையிலான விதிமுறைகளை நிறுவுவதை நோக்கமாகக் கொண்டுள்ளது, அதிக ஆபத்துள்ள பயன்பாடுகளுக்கு கடுமையான தேவைகளை விதிக்கிறது. திறந்த மூல AI-க்கான விலக்குகள் அல்லது இலகுவான கடமைகள் புதுமையை வளர்ப்பதற்கும் திறந்த மூல சமூகத்தை அதிக சுமைக்கு உட்படுத்துவதைத் தவிர்ப்பதற்கும் நோக்கம் கொண்டவை.
இருப்பினும், நிறுவனங்கள் உண்மையான வெளிப்படைத்தன்மை இல்லாத மாதிரிகளுக்கு (குறிப்பாக தரவு மற்றும் பயிற்சி தொடர்பாக) ‘திறந்த மூல’ பட்டத்தை வெற்றிகரமாக கோர முடிந்தால், அவை முக்கியமான பாதுகாப்பு நடவடிக்கைகளைத் தவிர்க்கலாம். இது முக்கியமான கேள்விகளை எழுப்புகிறது:
- அர்த்தமுள்ள ஆய்வு: ஒரு சக்திவாய்ந்த AI மாதிரியின் பயிற்சித் தரவு - அதன் நடத்தை மற்றும் சாத்தியமான சார்புகளின் முக்கிய நிர்ணயம் - பார்வையிலிருந்து மறைக்கப்பட்டிருந்தால், ஒழுங்குபடுத்துபவர்கள் அதன் அபாயங்களை போதுமான அளவு மதிப்பிட முடியுமா? தவறான லேபிளிங் சாத்தியமான அதிக ஆபத்துள்ள அமைப்புகளை உத்தேசிக்கப்பட்டதை விட குறைவான மேற்பார்வையுடன் செயல்பட அனுமதிக்கலாம்.
- பொறுப்புக்கூறல் இடைவெளிகள்: விஷயங்கள் தவறாக நடக்கும்போது - ஒரு மாதிரி தீங்கு விளைவிக்கும் சார்புகளை வெளிப்படுத்தினால் அல்லது ஆபத்தான வெளியீடுகளை உருவாக்கினால் - அடிப்படை தரவு மற்றும் பயிற்சி செயல்முறை ஒளிபுகாவாக இருந்தால் யார் பொறுப்பு? உண்மையான திறந்த தன்மை விசாரணை மற்றும் பொறுப்புக்கூறலை எளிதாக்குகிறது; ‘ஓப்பன்வாஷிங்’ அதை மறைக்கிறது.
- நெறிமுறை ஆளுகை: AI-ஐ பொறுப்புடன் பயன்படுத்துவதற்கு அதன் வரம்புகள் மற்றும் சாத்தியமான சமூக தாக்கங்களைப் புரிந்துகொள்வது அவசியம். பயிற்சித் தரவு போன்ற முக்கிய கூறுகள் இரகசியமாக வைக்கப்படும்போது இந்த புரிதல் அடிப்படையில் சமரசம் செய்யப்படுகிறது. இது சுயாதீன தணிக்கைகள், சார்பு மதிப்பீடுகள் மற்றும் நெறிமுறை ஆய்வுகளை கணிசமாக மிகவும் சவாலானதாக ஆக்குகிறது, சாத்தியமற்றது இல்லையென்றால்.
ஒழுங்குமுறையை வழிநடத்த ‘திறந்த மூல’ லேபிளின் மூலோபாய பயன்பாடு ஒரு சட்ட சூழ்ச்சி மட்டுமல்ல; இது ஆழ்ந்த நெறிமுறை தாக்கங்களைக் கொண்டுள்ளது. இது பொது நம்பிக்கையை குறைமதிப்பிற்கு உட்படுத்தும் மற்றும் AI வளர்ச்சி பாதுகாப்பான, நியாயமான மற்றும் பொறுப்புக்கூறும் முறையில் முன்னேறுவதை உறுதி செய்வதற்கான முயற்சிகளைத் தடுக்கும் அபாயத்தை ஏற்படுத்துகிறது. ‘திறந்த மூல AI’-ன் ஒழுங்குமுறை வரையறைகள் உண்மையான வெளிப்படைத்தன்மையின் கொள்கைகளுடன் ஒத்துப்போவதை உறுதி செய்வது எனவே மிக முக்கியமானது.
உண்மையான AI திறந்த தன்மையை நோக்கிய ஒரு போக்கை வரைதல்
அதிர்ஷ்டவசமாக, எச்சரிக்கை மணிகள் ஒலிக்கின்றன, மேலும் AI யுகத்தில் ‘திறந்த மூலத்தின்’ அர்த்தத்தை மீட்டெடுப்பதற்கான முயற்சிகள் நடந்து வருகின்றன. Open Source Initiative (OSI), திறந்த மூல வரையறைகளின் நீண்டகால பாதுகாவலர், Open Source AI-க்கான தெளிவான தரங்களை நிறுவ ஒரு உலகளாவிய ஆலோசனை செயல்முறையை முன்னெடுத்துள்ளது (இது OSAID 1.0 வரையறையில் விளைந்தது).
இந்த முயற்சியில் ஒரு முக்கிய புதுமை ‘தரவு தகவல்’ (data information) என்ற கருத்து ஆகும். பாரிய மூல தரவுத்தொகுப்புகளை வெளியிடுவது சில சந்தர்ப்பங்களில் சட்டரீதியாகவோ அல்லது தளவாட ரீதியாகவோ சாத்தியமற்றதாக இருக்கலாம் என்பதை அங்கீகரித்து (தனியுரிமை, பதிப்புரிமை அல்லது அளவு காரணமாக), OSAID கட்டமைப்பு தரவு பற்றிய விரிவான வெளிப்படுத்தலின் அவசியத்தை வலியுறுத்துகிறது. இதில் பின்வருவன பற்றிய விவரங்கள் அடங்கும்:
- மூலங்கள்: தரவு எங்கிருந்து வந்தது?
- பண்புகள்: இது என்ன வகையான தரவு (உரை, படங்கள், குறியீடு)? அதன் புள்ளிவிவர பண்புகள் என்ன?
- தயாரிப்பு: தரவு எவ்வாறு சேகரிக்கப்பட்டது, வடிகட்டப்பட்டது, சுத்தம் செய்யப்பட்டது மற்றும் முன் செயலாக்கப்பட்டது? சார்புகளைத் தணிக்க என்ன நடவடிக்கைகள் எடுக்கப்பட்டன?
இந்த அளவிலான வெளிப்படைத்தன்மை, மூல தரவு இல்லாவிட்டாலும் கூட, ஒரு மாதிரியின் சாத்தியமான திறன்கள், வரம்புகள் மற்றும் சாத்தியமான சார்புகளைப் புரிந்துகொள்ள ஆராய்ச்சியாளர்களுக்கு முக்கியமான சூழலை வழங்குகிறது. இது ஒரு நடைமுறை சமரசத்தைக் குறிக்கிறது, தற்போதுள்ள கட்டுப்பாடுகளுக்குள் அதிகபட்ச வெளிப்படைத்தன்மைக்கு அழுத்தம் கொடுக்கிறது. OSI உடன் இணைந்து, Open Future போன்ற நிறுவனங்கள் ‘தரவு-பொதுக்கள்’ (data-commons) மாதிரியை நோக்கிய ஒரு பரந்த மாற்றத்திற்காக வாதிடுகின்றன, AI பயிற்சிக்காக பகிரப்பட்ட, நெறிமுறை ரீதியாக பெறப்பட்ட மற்றும் வெளிப்படையாக அணுகக்கூடிய தரவுத்தொகுப்புகளை உருவாக்குவதற்கான வழிகளை ஆராய்கின்றன, நுழைவுத் தடைகளை மேலும் குறைத்து கூட்டு வளர்ச்சியை வளர்க்கின்றன. இத்தகைய தெளிவான, சமூகம்-சரிபார்க்கப்பட்ட தரங்களை நிறுவுவதும் பின்பற்றுவதும் ‘ஓப்பன்வாஷிங்’ மூடுபனியை அகற்றுவதற்கான அத்தியாவசிய முதல் படியாகும்.
ஆராய்ச்சி சமூகத்திற்கான கட்டாயம்
விஞ்ஞானிகள் மற்றும் ஆராய்ச்சியாளர்கள் AI கருவிகளின் வெறும் நுகர்வோர் அல்ல; இந்தக் கருவிகள் அறிவியல் மதிப்புகளுடன் ஒத்துப்போவதை உறுதி செய்வதில் அவர்கள் முக்கியமான பங்குதாரர்கள். OSAID 1.0 போன்ற வளர்ந்து வரும் வரையறைகள் மற்றும் தரங்களுடன் தீவிரமாக ஈடுபடுவது இன்றியமையாதது. ஆனால் நடவடிக்கை வெறும் விழிப்புணர்வுக்கு அப்பால் செல்ல வேண்டும்:
- வெளிப்படைத்தன்மையைக் கோருங்கள்: வெளியீடுகள், மானிய முன்மொழிவுகள் மற்றும் கருவித் தேர்வுகளில், ஆராய்ச்சியாளர்கள் தாங்கள் பயன்படுத்தும் AI மாதிரிகள் தொடர்பான அதிக வெளிப்படைத்தன்மைக்கு முன்னுரிமை அளித்து கோர வேண்டும். மாதிரி வெளியீடுகளுடன் விரிவான ‘தரவு தகவல்’ அட்டைகள் அல்லது தரவுத்தாள்களுக்கு அழுத்தம் கொடுப்பது இதில் அடங்கும்.
- உண்மையான திறந்த தன்மையை ஆதரிக்கவும்: OLMo போன்ற திட்டங்கள் அல்லது குறியீடு, தரவு மற்றும் முறைகளை வெளியிடுவதில் உண்மையான அர்ப்பணிப்பைக் காட்டும் பிற முயற்சிகளுக்கு தீவிரமாக பங்களிக்கவும், பயன்படுத்தவும் மற்றும் மேற்கோள் காட்டவும். பதிவிறக்கங்கள் மற்றும் மேற்கோள்களுடன் வாக்களிப்பது ஒரு சக்திவாய்ந்த சந்தை சமிக்ஞையை அனுப்புகிறது.
- மதிப்பீட்டுத் தரங்களை உருவாக்குங்கள்: ஒரு AI மாதிரியின் திறந்த தன்மையின் அளவை மதிப்பிடுவதற்கு சமூகத்திற்கு வலுவான முறைகள் மற்றும் சரிபார்ப்புப் பட்டியல்கள் தேவை, எளிமையான லேபிள்களுக்கு அப்பால் செல்ல வேண்டும். சக மதிப்பாய்வு செயல்முறைகள் ஆராய்ச்சியில் பயன்படுத்தப்படும் AI கருவிகளுடன் தொடர்புடைய வெளிப்படைத்தன்மை உரிமைகோரல்களின் ஆய்வை இணைக்க வேண்டும்.
- நிறுவனங்களுக்குள் வாதிடுங்கள்: பல்கலைக்கழகங்கள், ஆராய்ச்சி நிறுவனங்கள் மற்றும் தொழில்முறை சங்கங்களை உண்மையான திறந்த மற்றும் வெளிப்படையான AI கருவிகள் மற்றும் தளங்களைப் பயன்படுத்துவதற்கு ஆதரவளிக்கும் அல்லது தேவைப்படும் கொள்கைகளை ஏற்க ஊக்குவிக்கவும்.
அறிவியல் சமூகம் கணிசமான செல்வாக்கைக் கொண்டுள்ளது. மறுஉருவாக்கம், வெளிப்படைத்தன்மை மற்றும் கூட்டு அணுகலை நிலைநிறுத்தும் தரங்களை கூட்டாக வலியுறுத்துவதன் மூலம், ஆராய்ச்சியாளர்கள் தவறான உரிமைகோரல்களுக்கு எதிராகத் தள்ளி, கடுமையான அறிவியல் கண்டுபிடிப்புக்கு உகந்த AI சூழலை வடிவமைக்க உதவலாம்.
கொள்கை, நிதி மற்றும் முன்னோக்கிய பாதை
அரசாங்கங்கள் மற்றும் பொது நிதி நிறுவனங்களும் AI நிலப்பரப்பை வடிவமைப்பதில் குறிப்பிடத்தக்க அதிகாரத்தைக் கொண்டுள்ளன. அவர்களின் கொள்கைகள் மறைமுகமாக ‘ஓப்பன்வாஷிங்’-ஐ ஆதரிக்கலாம் அல்லது உண்மையான திறந்த தன்மையை தீவிரமாக ஊக்குவிக்கலாம்.
- திறந்த தன்மைக்கான ஆணைகள்: US National Institutes of Health (NIH) போன்ற நிறுவனங்கள் ஏற்கனவே தாங்கள் நிதியளிக்கும் ஆராய்ச்சிக்கான திறந்த உரிமம் மற்றும் தரவுப் பகிர்வைக் கோரும் ஆணைகளைக் கொண்டுள்ளன. பொதுப் பணத்தில் உருவாக்கப்பட்ட AI மாதிரிகள் மற்றும் தரவுத்தொகுப்புகளுக்கு இதேபோன்ற கொள்கைகளை நீட்டிப்பது ஒரு தர்க்கரீதியான மற்றும் அவசியமான படியாகும். பொது நிதி AI வளர்ச்சியை ஆதரித்தால், முடிவுகள் பொதுவில் அணுகக்கூடியதாகவும் முடிந்தவரை சரிபார்க்கக்கூடியதாகவும் இருக்க வேண்டும்.
- கொள்முதல் சக்தி: அரசாங்க முகமைகள் தொழில்நுட்பத்தின் முக்கிய நுகர்வோர். பொது கொள்முதல் ஒப்பந்தங்களில் உண்மையான திறந்த மூல AI-க்கான தேவைகளைக் குறிப்பிடுவதன் மூலம் (OSAID போன்ற தரங்களைப் பின்பற்றுதல்), அரசாங்கங்கள் நிறுவனங்கள் அதிக வெளிப்படையான நடைமுறைகளை ஏற்க ஒரு குறிப்பிடத்தக்க சந்தை ஊக்கத்தை உருவாக்க முடியும். பொது நிர்வாகத்தில் திறந்த மூல மென்பொருளுக்கான இத்தாலியின் தேவை ஒரு சாத்தியமான டெம்ப்ளேட்டை வழங்குகிறது.
- திறந்த உள்கட்டமைப்பில் முதலீடு செய்தல்: ஒழுங்குமுறைக்கு அப்பால், ‘தரவு பொதுக்கள்’ முயற்சிகள், ஆராய்ச்சியாளர்களுக்கான திறந்த கணினி வளங்கள் மற்றும் உண்மையான திறந்த AI மாதிரிகளை ஹோஸ்ட் செய்வதற்கும் மதிப்பீடு செய்வதற்கும் அர்ப்பணிக்கப்பட்ட தளங்களில் பொது முதலீடு மாற்றத்தை ஏற்படுத்தும். இது விளையாட்டு மைதானத்தை சமன் செய்ய உதவும் மற்றும் தனியுரிம அல்லது அரை-திறந்த அமைப்புகளுக்கு சாத்தியமான மாற்றுகளை வழங்க உதவும்.
- உலகளாவிய ஒத்துழைப்பு: AI வளர்ச்சியின் உலகளாவிய தன்மையைக் கருத்தில் கொண்டு, திறந்த மூல AI தரங்களை வரையறுப்பதிலும் ஊக்குவிப்பதிலும் சர்வதேச ஒத்துழைப்பு ஒழுங்குமுறை துண்டாக்கப்படுவதைத் தவிர்க்கவும், உலகளவில் வெளிப்படைத்தன்மை மற்றும் பொறுப்புக்கூறலின் நிலையான அடிப்படையை உறுதி செய்யவும் அவசியம்.
கொள்கை நெம்புகோல்கள், சிந்தனையுடன் பயன்படுத்தப்படும்போது, ஏமாற்றும் லேபிளிங்கிலிருந்து விலகி, அறிவியல் நேர்மை மற்றும் பரந்த புதுமையை உண்மையாக ஆதரிக்கும் நடைமுறைகளை நோக்கி ஊக்கத்தொகைகளை கணிசமாக மாற்ற முடியும். AI-யில் ‘திறந்த மூல’ மாயைக்கு எதிரான போராட்டத்திற்கு ஒரு ஒருங்கிணைந்த முயற்சி தேவை. ஆராய்ச்சியாளர்கள் விழிப்புடன் விமர்சகர்களாக இருக்க வேண்டும், அறிவியல் கடுமைக்குத் தேவையான வெளிப்படைத்தன்மையைக் கோர வேண்டும். OSI போன்ற தரநிலை அமைக்கும் அமைப்புகள் AI-யின் தனித்துவமான தன்மையைப் பிரதிபலிக்கும் வரையறைகளைத் தொடர்ந்து செம்மைப்படுத்த வேண்டும். மேலும் கொள்கை வகுப்பாளர்கள் சரிபார்க்கக்கூடிய, நம்பகமான மற்றும் அணுகக்கூடிய செயற்கை நுண்ணறிவில் பொது நலனுடன் ஒத்துப்போகும் நடைமுறைகளை ஊக்குவிக்கவும் கட்டாயப்படுத்தவும் தங்கள் செல்வாக்கைப் பயன்படுத்த வேண்டும். அறிவியலில் AI-யின் எதிர்காலப் பாதை - அது கண்டுபிடிப்புக்கான உண்மையான திறந்த எல்லையாக மாறுமா அல்லது ஒளிபுகா கார்ப்பரேட் அமைப்புகளால் ஆதிக்கம் செலுத்தப்படும் நிலப்பரப்பாக மாறுமா - சமநிலையில் தொங்குகிறது.