DeepSeek’s R1 போன்ற அதிநவீன செயற்கை நுண்ணறிவு மாதிரிகளின் தோற்றம் மேற்குலக தொழில்நுட்ப உலகில் அதிர்வலைகளை ஏற்படுத்தியுள்ளது, AI மேம்பாடு தொடர்பான உத்திகள் குறித்து, குறிப்பாக செலவுத் திறன் மற்றும் அதிநவீன திறன் ஆகியவற்றின் போட்டியிடும் தேவைகளைச் சுற்றி அவசியமான சுயபரிசோதனையைத் தூண்டியுள்ளது. இருப்பினும், இதன் தாக்கங்கள் வெறும் தொழில்நுட்ப அளவுகோல்கள் அல்லது பொருளாதாரத் திறன்களைத் தாண்டி விரிவடைகின்றன. DeepSeek கோடிட்டுக் காட்டும் பாதை மிகவும் ஆழமான மற்றும் அவசரமான பரிசீலனையை கட்டாயப்படுத்துகிறது: குறிப்பிட்ட வகை AIகளின் எழுச்சி, குறிப்பாக ஜனநாயகமற்ற நாடுகளால் முன்னெடுக்கப்படுபவை, வழிமுறைகளால் பெருகிய முறையில் வடிவமைக்கப்படும் ஒரு சகாப்தத்தில் ஜனநாயகத்தின் எதிர்கால ஆரோக்கியத்திற்கும் கொள்கைகளுக்கும் என்ன அர்த்தம்?
இந்த சவாலின் மையத்தில் திறந்த மூல AI (open-source AI) என்ற கருத்து உள்ளது. இது அடிப்படை கூறுகள் - அடிப்படை குறியீடு முதல் பயிற்சிக்கு பயன்படுத்தப்படும் தரவுத்தொகுப்புகள் வரை - பொதுவில் அணுகக்கூடிய AI அமைப்புகளைக் குறிக்கிறது. இந்த வெளிப்படைத்தன்மை பயனர்கள் கருவிகளைப் பயன்படுத்துவதோடு மட்டுமல்லாமல், அவற்றின் உள் செயல்பாடுகளைப் படிக்கவும், குறிப்பிட்ட நோக்கங்களுக்காக அவற்றை மாற்றியமைக்கவும், தங்கள் கண்டுபிடிப்புகளைப் பகிரவும் அனுமதிக்கிறது. சிக்கலான AI மாதிரிகளின் சூழலில் ‘திறந்த மூலம்’ என்பதன் சரியான வரையறை இன்னும் விவாதிக்கப்பட்டாலும், அதன் சாத்தியம் மகத்தானது. இது AI மேம்பாட்டை ஜனநாயகப்படுத்துவதாக உறுதியளிக்கிறது, டெவலப்பர்கள் ஒத்துழைத்து ஒருவருக்கொருவர் பணிகளை உருவாக்கக்கூடிய ஒரு துடிப்பான சூழலை வளர்க்கிறது. இந்த கூட்டுறவு மனப்பான்மை தனிநபர்கள், ஆராய்ச்சியாளர்கள் மற்றும் சமூகங்களுக்கு கல்வி, சுகாதாரம் மற்றும் நிதிச் சேவைகள் போன்ற முக்கியமான துறைகளுக்கு AI தீர்வுகளைத் தையல் செய்ய அதிகாரம் அளிக்கும், இது குறிப்பிடத்தக்க புதுமைகளைத் திறக்கும் மற்றும் பரவலாக பொருளாதார முன்னேற்றத்தை துரிதப்படுத்தும்.
ஆயினும்கூட, இந்த நம்பிக்கைக்குரிய தொழில்நுட்ப வழி, குறிப்பாக அதன் நிர்வாகம் மற்றும் அடிப்படை மதிப்புகள் குறித்து உள்ளார்ந்த சிக்கல்களையும் அபாயங்களையும் கொண்டுள்ளது. உதாரணமாக, DeepSeek R1 மாதிரி குறித்த அறிக்கைகள், அது பயனர்களிடமிருந்து தகவல்களை தணிக்கை செய்யும் அல்லது தேர்ந்தெடுத்து நிறுத்தி வைக்கும் வழிமுறைகளை உள்ளடக்கியிருக்கலாம் என்று கூறுகின்றன. இந்த ஒற்றை உதாரணம் ஒரு பெரிய ஆபத்தை அடிக்கோடிட்டுக் காட்டுகிறது: ஜனநாயக நாடுகள் சிறந்த AI செயல்திறனுக்கான தொழில்நுட்பப் போட்டியில் பின்தங்கிப் போகும் அபாயத்தை மட்டும் எதிர்கொள்ளவில்லை. AI இன் நிர்வாகத்தை வடிவமைப்பதற்கான முக்கியமான போரில் தரைப்பகுதியை விட்டுக்கொடுக்கும் சமமான முக்கியமான ஆபத்தை அவர்கள் எதிர்கொள்கின்றனர், இது சர்வாதிகாரக் கொள்கைகளுடன் உட்பொதிக்கப்பட்ட அமைப்புகள் உலகளவில் பெருக அனுமதிக்கலாம், கருத்துச் சுதந்திரம் மற்றும் தகவலுக்கான அணுகல் போன்ற ஜனநாயக நெறிகளை நிலைநிறுத்த வடிவமைக்கப்பட்டவற்றை மறைக்கலாம்.
எனவே, தற்போதைய தருணம் ஒரு செயலூக்கமான மற்றும் ஒருங்கிணைந்த பதிலை கோருகிறது. ஐக்கிய அமெரிக்கா தனது ஜனநாயக நட்பு நாடுகளுடன், குறிப்பாக ஐரோப்பிய ஒன்றியம் ஒரு முக்கிய ஒத்துழைப்பாளராக, திறந்த மூல AI க்கான உலகளாவிய தரநிலைகள் மற்றும் சிறந்த நடைமுறைகளை நிறுவ ஒரு வலுவான கூட்டாண்மையை உருவாக்குவது கட்டாயமாகும். தங்களின் தற்போதைய சட்ட கட்டமைப்புகள் மற்றும் கணிசமான சந்தை செல்வாக்கைப் பயன்படுத்தி, இந்த அட்லாண்டிக் கூட்டாளிகள் இந்த வளர்ந்து வரும் துறைக்கு ஒரு வலுவான நிர்வாக கட்டமைப்பை உருவாக்குவதற்கு தலைமை தாங்க வேண்டும். ஒழுங்குமுறைத் தெளிவு மற்றும் செயல்திறனை உறுதி செய்வதற்காக திறந்த மூல AI இன் செயல்பாட்டு வரையறையைச் சுற்றி அதிகாரப்பூர்வமாக ஒன்றிணைவது ஒரு முக்கியமான முதல் படியாகும். இதைத் தொடர்ந்து, வெளிப்படைத்தன்மை, நேர்மை, பொறுப்புக்கூறல் மற்றும் அடிப்படை உரிமைகளுக்கான மரியாதை போன்ற ஜனநாயக மதிப்புகள் - உருவாக்கப்பட்டு ஊக்குவிக்கப்படும் திறந்த மூல AI மாதிரிகளுக்குள் ஆழமாகப் பதிக்கப்படுவதை உறுதிசெய்ய ஒருங்கிணைந்த முயற்சிகளின் முடுக்கம் தேவைப்படுகிறது. அத்தகைய ஒரு மூலோபாய உந்துதல், சர்வாதிகாரக் கட்டுப்பாட்டால் நுட்பமாக வடிவமைக்கப்பட்ட ஒன்றை விட, அனைவருக்கும் உண்மையாக திறந்த, வெளிப்படையான மற்றும் அதிகாரம் அளிக்கும் AI எதிர்காலத்திற்கு வழி வகுக்க அவசியம்.
சீனாவின் கணக்கிடப்பட்ட திறந்தநிலை அரவணைப்பு
தற்போதைய இயக்கவியலைப் புரிந்துகொள்வதற்கு AI களத்தில் சீனாவின் மூலோபாய நகர்வுகளைப் பாராட்டுவது அவசியம். DeepSeek இன் குறிப்பிடத்தக்க வெற்றியின் ஒரு பகுதி தொழில்நுட்பத் திறமை மட்டுமல்ல; இது சீன கம்யூனிஸ்ட் கட்சியின் (CCP) தெளிவான சமிக்ஞைகளுடன் ஒத்துப்போகிறது, இது திறந்த மூல AI இன் நெறிமுறை அமைப்பை அதன் சட்ட மற்றும் கொள்கை கட்டமைப்பில் நேரடியாக ஒருங்கிணைக்கும் நோக்கத்தைக் குறிக்கிறது. ஏப்ரல் 2024 இல் மாதிரி AI சட்ட வரைவுடன் ஒரு குறிப்பிடத்தக்க அறிகுறி வந்தது. இந்த ஆவணம் உள்நாட்டு திறந்த மூல AI சூழலை வளர்ப்பதற்கான பெய்ஜிங்கின் ஆதரவை வெளிப்படையாகக் கூறுகிறது.
இந்த வரைவுச் சட்டத்தின் பிரிவு 19, அரசு “திறந்த மூல சூழலின் கட்டுமானத்தை ஊக்குவிக்கிறது” என்றும், “திறந்த மூல தளங்கள், திறந்த மூல சமூகங்கள் மற்றும் திறந்த மூல திட்டங்களை உருவாக்குதல் அல்லது இயக்குவதில் தொடர்புடைய நிறுவனங்களை தீவிரமாக ஆதரிக்கிறது” என்றும் அறிவிக்கிறது. இது மேலும் சென்று, நிறுவனங்களை “மென்பொருள் மூலக் குறியீடு, வன்பொருள் வடிவமைப்புகள் மற்றும் பயன்பாட்டு சேவைகளை பொதுவில் கிடைக்கச் செய்ய” ஊக்குவிக்கிறது, வெளிப்படையாக தொழில்துறை அளவிலான பகிர்வு மற்றும் கூட்டு புதுமைகளை வளர்ப்பதற்காக. ஒருவேளை மிகவும் குறிப்பிடத்தக்க வகையில், இந்த வரைவு, “தேசிய தரங்களுக்கு” இணங்க நிர்வாக அமைப்புகளை நிறுவுவதற்கும் “தொடர்புடைய பாதுகாப்பு நடவடிக்கைகளை” செயல்படுத்துவதற்கும் உட்பட்டு, திறந்த மூல AI மாதிரிகளை வழங்கும் நிறுவனங்களுக்கான சட்டப் பொறுப்பைக் குறைப்பது அல்லது நீக்குவது கூட பரிந்துரைக்கிறது. இது சீனாவில் முந்தைய AI தொடர்பான சட்டங்களிலிருந்து ஒரு குறிப்பிடத்தக்க மாற்றத்தைக் குறிக்கிறது, இது பெரும்பாலும் பயனர் உரிமைகளின் பாதுகாப்பை மிகவும் வெளிப்படையாக வலியுறுத்தியது. இன்னும் ஒரு வரைவாக இருந்தாலும், மாதிரி AI சட்டத்திற்குள் உள்ள குறிப்பிட்ட விதிகள் ஒரு மதிப்புமிக்க வரைபடத்தை வழங்குகின்றன, சீனா உள்நாட்டில் திறந்த மூல AI ஐ எவ்வாறு பயன்படுத்த திட்டமிட்டுள்ளது என்பதையும், முக்கியமாக, அதன் ஏற்றுமதி செய்யப்பட்ட AI மாதிரிகள் என்ன பண்புகளைக் கொண்டிருக்கக்கூடும் என்பதையும் வெளிப்படுத்துகிறது.
இந்த மூலோபாய திசையை மேலும் வலுப்படுத்துவது AI பாதுகாப்பு நிர்வாக கட்டமைப்பு ஆகும், இது சீனா சர்வதேச அளவில் “உலக அளவில் AI பாதுகாப்பு நிர்வாகத்தில் சர்வதேச ஒத்துழைப்பை மேம்படுத்துவதற்கு” பயன்படுத்த விரும்பும் ஒரு ஆவணமாகும். இந்த கட்டமைப்பு திறந்த மூல AI தொடர்பாக நாட்டின் வளர்ந்து வரும் உறுதியைப் பிரதிபலிக்கிறது. சீனாவின் தேசிய தொழில்நுட்பக் குழு 260 சைபர் பாதுகாப்பு - செப்டம்பர் 2024 இல் CCP ஆல் அதிகாரப்பூர்வமாக ஏற்றுக்கொள்ளப்பட்ட சக்திவாய்ந்த சைபர்ஸ்பேஸ் நிர்வாகத்துடன் நெருக்கமாக இணைக்கப்பட்ட ஒரு அமைப்பு - இந்த கட்டமைப்பை வரைந்துள்ளது, இது சந்தேகத்திற்கு இடமின்றி கூறுகிறது: “நாம் AI இல் அறிவுப் பகிர்வை ஊக்குவிக்க வேண்டும், AI தொழில்நுட்பங்களை திறந்த மூல விதிமுறைகளின் கீழ் பொதுமக்களுக்குக் கிடைக்கச் செய்ய வேண்டும், மேலும் AI சிப்கள், கட்டமைப்புகள் மற்றும் மென்பொருளை கூட்டாக உருவாக்க வேண்டும்.” உலகளாவிய பார்வையாளர்களை இலக்காகக் கொண்ட ஒரு ஆவணத்தில் இத்தகைய வலுவான அறிக்கையைச் சேர்ப்பது, திறந்த மூல AI இயக்கத்தில் பங்கேற்பது மட்டுமல்லாமல், இந்த முக்கியமான தொழில்நுட்பத் துறையில் ஒரு முன்னணி வக்கீலாகவும் தரநிலை அமைப்பாளராகவும் தன்னை நிலைநிறுத்திக் கொள்ளும் சீனாவின் லட்சியத்தை தெளிவாகக் குறிக்கிறது. இருப்பினும், இந்த கணக்கிடப்பட்ட ‘திறந்தநிலை’ அரவணைப்பு, ஒரு தனித்துவமான கட்டுப்படுத்தப்பட்ட சூழலில் செயல்படுகிறது, இது திறந்த மூலத்தின் புதுமையான சக்தியைப் பயன்படுத்திக் கொள்ளும் அதே வேளையில் அரசு நோக்கங்களுடன் சீரமைப்பைப் பேணுகிறது.
அமெரிக்காவின் தயக்கம்: திசையை விட பாதுகாப்பு
பசிபிக் பெருங்கடலுக்கு அப்பால், அமெரிக்காவில் திறந்த மூல AI ஐச் சுற்றியுள்ள விவரிப்பு முரண்பாடுகளின் ஆய்வை முன்வைக்கிறது. சில காலமாக, தொழில்நுட்பத் துறை மற்றும் கல்வித்துறையில் உள்ள வக்கீல்கள் திறந்த மூல அணுகுமுறைகளின் கணிசமான நன்மைகளை வென்றுள்ளனர். முக்கிய தொழில்துறை பிரமுகர்கள் அமெரிக்க அரசாங்கத்தை திறந்த மூல AI மேம்பாட்டை வளர்ப்பதில் அதிக மூலோபாய முக்கியத்துவத்தை வைக்குமாறு பகிரங்கமாக வலியுறுத்தியுள்ளனர். ஒரு குறிப்பிடத்தக்க உதாரணம் Mark Zuckerberg இன் திறந்த மூல மாதிரி Llama 3.1 ஐ அறிமுகப்படுத்தியது, அதனுடன் திறந்த மூலம் “அனைவருக்கும் பரவலான பொருளாதார வாய்ப்பு மற்றும் பாதுகாப்பை உருவாக்குவதற்கான உலகின் சிறந்த வாய்ப்பைக் குறிக்கிறது” என்ற அவரது கூற்றும் உள்ளது.
செல்வாக்கு மிக்க வட்டாரங்களிலிருந்து இந்த குரல் வக்காலத்து இருந்தபோதிலும், திறந்த மூல AI இன் வளர்ச்சியை ஊக்குவிக்க அல்லது வழிகாட்ட பிரத்யேகமாக வடிவமைக்கப்பட்ட எந்தவொரு குறிப்பிடத்தக்க சட்ட கட்டமைப்பையும் நிறுவ அமெரிக்கா வெளிப்படையாகத் தவறிவிட்டது. ஒரு அமெரிக்க செனட்டர் 2023 இல் திறந்த மூல மென்பொருள் பாதுகாப்பிற்கான ஒரு கட்டமைப்பை உருவாக்குவதை நோக்கமாகக் கொண்ட ஒரு மசோதாவை அறிமுகப்படுத்தியிருந்தாலும், இந்த சட்டம் அர்த்தமுள்ள முன்னேற்றம் இல்லாமல் தேக்கமடைந்துள்ளது. கூட்டாட்சி முகமைகள் இந்த பிரச்சினையைத் தொட்டுள்ளன, ஆனால் பெரும்பாலும் எச்சரிக்கையான அல்லது எதிர்வினையாற்றும் தோரணையுடன். கடந்த ஆண்டு, தேசிய தொலைத்தொடர்பு மற்றும் தகவல் நிர்வாகம் (NTIA) “திறந்த எடைகள்” (open weights) கொண்ட இரட்டைப் பயன்பாட்டு AI அடித்தள மாதிரிகளை ஆய்வு செய்யும் ஒரு அறிக்கையை வெளியிட்டது. ‘திறந்த எடைகள்’ என்பது பொதுவாக மாதிரியின் அளவுருக்கள் பயன்பாட்டிற்குக் கிடைக்கின்றன என்பதைக் குறிக்கிறது, ஆனால் அது உண்மையாக திறந்த மூலமாக இருப்பதற்கான முழு அளவுகோல்களையும் (இது பெரும்பாலும் பயிற்சித் தரவு மற்றும் குறியீட்டிற்கான அணுகலை உள்ளடக்கியது) பூர்த்தி செய்ய வேண்டிய அவசியமில்லை என்பதைக் கவனத்தில் கொள்ள வேண்டும். NTIA அறிக்கை, பொருத்தமான கட்டுப்பாடுகளை சிறப்பாகத் தீர்மானிக்க இந்த திறந்த-எடை மாதிரிகளுடன் தொடர்புடைய சாத்தியமான அபாயங்களை அரசாங்கம் தீவிரமாக கண்காணிக்க அறிவுறுத்தியது. பின்னர், Biden நிர்வாகத்தின் இறுதி AI ஒழுங்குமுறை கட்டமைப்பு திறந்த மாதிரிகள் மீது சற்றே மென்மையான நிலைப்பாட்டை எடுத்தது, மிகவும் சக்திவாய்ந்த மூடிய-எடை (closed-weight) மாதிரிகளுக்கு கடுமையான தேவைகளை அமைத்தது, அதே நேரத்தில் திறந்த-எடை மாதிரிகளை இந்த குறிப்பிட்ட கட்டுப்பாடுகளிலிருந்து பெரும்பாலும் விலக்கியது.
ஆயினும்கூட, ஜனநாயக திறந்த மூல AI ஐ வெல்வதற்கான தெளிவான, செயலூக்கமான தேசிய மூலோபாயம் மழுப்பலாகவே உள்ளது. சாத்தியமான தலைமை மாற்றங்களின் கீழ் எதிர்கால திசை நிச்சயமற்ற தன்மையின் மற்றொரு அடுக்கைச் சேர்க்கிறது. முன்னாள் ஜனாதிபதி Donald Trump திறந்த மூல AI தொடர்பாக ஒரு குறிப்பிட்ட கொள்கை அல்லது வழிகாட்டுதலை வெளிப்படுத்தவில்லை. அவர் ஜனாதிபதி Biden இன் ஆரம்ப AI நிர்வாக உத்தரவை ரத்து செய்தாலும், வெளியிடப்பட்ட மாற்று உத்தரவு திறந்த மூல AI இன் வளர்ச்சியை வளர்ப்பதற்கோ அல்லது வழிநடத்துவதற்கோ அர்ப்பணிக்கப்பட்ட எந்தவொரு உறுதியான முன்முயற்சிகளையும் கோடிட்டுக் காட்டவில்லை.
ஒட்டுமொத்தமாக, அமெரிக்க அணுகுமுறை பிரதானமாக தற்காப்புடன் தோன்றுகிறது. முதன்மை கவனம் மிகவும் திறமையான, பெரும்பாலும் தனியுரிம, AI மாதிரிகளை உருவாக்குவதிலும், அதே நேரத்தில் எதிரிகள், குறிப்பாக சீனா, மேம்பட்ட குறைக்கடத்தி தொழில்நுட்பம் மற்றும் AI திறன்களை அணுகுவதைத் தடுக்க கணிசமான முயற்சியைச் செலவிடுவதிலும் இருப்பதாகத் தெரிகிறது. இந்த தற்காப்பு நிலைப்பாடு, தேசிய பாதுகாப்பு கண்ணோட்டத்தில் புரிந்துகொள்ளக்கூடியதாக இருந்தாலும், முக்கியமான தாக்குதல் மூலோபாயத்தை புறக்கணிக்கும் அபாயத்தைக் கொண்டுள்ளது: ஜனநாயகக் கொள்கைகளில் வேரூன்றிய திறந்த மூல AI இன் உலகளாவிய சூழலை தீவிரமாக வளர்ப்பது மற்றும் ஊக்குவிப்பது. அமெரிக்கா தனது தொழில்நுட்பக் கோட்டைகளைக் காப்பதில் மும்முரமாக இருப்பதாகத் தெரிகிறது, திறந்த, உரிமைகளை மதிக்கும் AI மாற்றுகளின் செயலூக்கமான பரவல் மூலம் பரந்த உலகளாவிய நிலப்பரப்பை வடிவமைக்கும் வாய்ப்பை இது இழக்கக்கூடும்.
ஐரோப்பாவின் ஒழுங்குமுறை முரண்பாடு: சக்தி மற்றும் முடக்கம்
டிஜிட்டல் துறையில் அதன் உறுதியான ஒழுங்குமுறை நிலைப்பாட்டிற்காக புகழ்பெற்ற ஐரோப்பிய ஒன்றியம், திறந்த மூல AI தொடர்பாக வேறுபட்ட சவாலை முன்வைக்கிறது. பொது தரவு பாதுகாப்பு ஒழுங்குமுறையின் (GDPR) முக்கிய அமலாக்கத்திலிருந்து, EU தன்னை டிஜிட்டல் பொருளாதாரத்திற்கான உலகளாவிய தரநிலை அமைப்பாளராக வெற்றிகரமாக நிலைநிறுத்தியுள்ளது. உலகெங்கிலும் உள்ள நாடுகள் மற்றும் பன்னாட்டு நிறுவனங்கள் தங்கள் நடைமுறைகளை EU இணக்க கட்டமைப்புகளுடன் அடிக்கடி சீரமைக்கின்றன, இது விரிவான EU AI சட்டத்தின் வருகையுடன் செயற்கை நுண்ணறிவு களத்திற்குள் நீட்டிக்கப்படும் ஒரு போக்காகும். இந்தச் சட்டம் ஒன்றியம் முழுவதும் AI அமைப்புகளுக்கு இடர் அடிப்படையிலான ஒழுங்குமுறைகளை நிறுவுவதை நோக்கமாகக் கொண்டுள்ளது.
இருப்பினும், திறந்த மூல AI ஐ குறிப்பாகக் கையாளும் போது, EU இன் வலிமைமிக்க ஒழுங்குமுறை இயந்திரம் வியக்கத்தக்க வகையில் தயக்கமாகவும் அதன் முயற்சிகள் ஓரளவு வளர்ச்சியடையாமலும் தோன்றுகின்றன. AI சட்டத்தின் பிரிவு 2 ஒரு சுருக்கமான குறிப்பைக் கொண்டுள்ளது, திறந்த மூல AI மாதிரிகளுக்கான ஒழுங்குமுறையிலிருந்து சில விலக்குகளை செதுக்குகிறது. ஆயினும்கூட, இந்த விலக்கின் நடைமுறைத் தாக்கம் குறைவாகவே தோன்றுகிறது, குறிப்பாக இது வணிக நோக்கங்களுக்காகப் பயன்படுத்தப்படும் மாதிரிகளுக்குப் பொதுவாகப் பொருந்தாது என்பதால். இந்த குறுகிய நோக்கம் வளர்ந்து வரும் திறந்த மூல AI நிலப்பரப்பில் அதன் உண்மையான உலக விளைவை கணிசமாகக் குறைக்கிறது.
இந்த முரண்பாடான நிலைமை - திறந்த மூலத்தை ஒப்புக்கொள்வது ஆனால் அதை தீவிரமாக வளர்க்கத் தவறியது - மற்ற EU வழிகாட்டுதல் ஆவணங்களிலும் தொடர்கிறது. இந்த விவாதத்தின் பொருட்டு மார்ச் 2025 இல் கற்பனையாக வெளியிடப்பட்ட மிக சமீபத்திய பொது-நோக்க AI நடத்தை விதிமுறை, பாதுகாப்பான, மனிதனை மையமாகக் கொண்ட மற்றும் நம்பகமான AI ஐ வளர்ப்பதில் திறந்த மூல மாதிரிகளின் நேர்மறையான பங்களிப்புகளை அங்கீகரிக்கக்கூடும். இருப்பினும், அத்தகைய ஆவணங்களில் பெரும்பாலும் அர்த்தமுள்ள விரிவாக்கம் அல்லது இந்த சாத்தியமான நன்மை பயக்கும் திறந்த மூல AI மாதிரிகளின் வளர்ச்சி மற்றும் பரவலான தத்தெடுப்பை தீவிரமாக ஊக்குவிக்க வடிவமைக்கப்பட்ட உறுதியான நடவடிக்கைகள் இல்லை. EU போட்டித்திறன் திசைகாட்டி போன்ற மூலோபாய கட்டமைப்புகளுக்குள் கூட - வெளிப்படையாக அதிகப்படியான ஒழுங்குமுறையைச் சமாளிக்கவும் AI போன்ற முக்கிய பகுதிகளில் மூலோபாய போட்டித்தன்மையை வலுப்படுத்தவும் வடிவமைக்கப்பட்டுள்ளது - ‘திறந்த மூலம்’ என்ற சொல் வெளிப்படையாக இல்லை அல்லது குறைந்தபட்ச கவனத்தைப் பெறுகிறது.
பிரஸ்ஸல்ஸிலிருந்து திறந்த மூல AI ஐ முழுமையாக ஏற்றுக்கொள்வதற்கும் ஒழுங்குபடுத்துவதற்கும் இந்த எச்சரிக்கையான, கிட்டத்தட்ட மௌனமான அணுகுமுறை பல காரணிகளிலிருந்து உருவாகிறது. ஒரு குறிப்பிடத்தக்க தடை திறந்த மூல AI ஐ துல்லியமாக வரையறுப்பதில் உள்ள உள்ளார்ந்த சிரமம் ஆகும். முதன்மையாக மூலக் குறியீட்டை உள்ளடக்கிய பாரம்பரிய திறந்த மூல மென்பொருளைப் போலன்றி, திறந்த மூல AI சிக்கலான முன் பயிற்சி பெற்ற மாதிரிகள், பரந்த தரவுத்தொகுப்புகள் மற்றும் சிக்கலான கட்டமைப்புகளை உள்ளடக்கியது. திறந்த மூல முயற்சி (OSI) போன்ற அமைப்புகளின் முயற்சிகள் இருந்தபோதிலும், உலகளவில் ஏற்றுக்கொள்ளப்பட்ட சட்ட வரையறை இல்லாதது, ஐரோப்பிய ஆணையம் போன்ற ஒழுங்குமுறை அமைப்புகள் பொதுவாக சங்கடமாக இருக்கும் ஒரு அளவிலான சட்ட நிச்சயமற்ற தன்மையை உருவாக்குகிறது.
ஆயினும்கூட, இந்த ஒப்பீட்டு செயலற்ற தன்மையின் அடிப்படை இயக்கி ஆழமாக இருக்கலாம். GDPR போன்ற தொலைநோக்கு ஒழுங்குமுறை ஆட்சிகளை நிறுவுவதில் EU இன் வெற்றியே, அதன் திறந்த மூல மாறுபாடு ஓரளவு வரையறுக்கப்படாமல் இருக்கும்போது, AI போன்ற சக்திவாய்ந்த மற்றும் வேகமாக வளர்ந்து வரும் தொழில்நுட்பத்திற்கு பரந்த விலக்குகளை உருவாக்குவதில் ஆணையத்தை எச்சரிக்கையாக ஆக்கக்கூடும். திறந்த மூல AI ஐ மிக எளிதாக ஏற்றுக்கொள்வது, முழுமையாக நிறுவப்பட்ட பாதுகாப்புத் தடைகள் இல்லாமல், EU இன் கடினமாக வென்ற உலகளாவிய ஒழுங்குமுறை செல்வாக்கை கவனக்குறைவாக பலவீனப்படுத்தக்கூடும் என்ற அச்சம் இருக்கலாம். இது ஒரு மூலோபாய சூதாட்டத்தை உருவாக்குகிறது - ஒருவேளை மிகவும் ஆற்றல்மிக்க, கணிக்க முடியாத, திறந்த கண்டுபிடிப்பு சூழலை வளர்ப்பதை விட விரிவான கட்டுப்பாட்டிற்கு முன்னுரிமை அளிப்பது - இதுவரையில், பிரஸ்ஸல்ஸ் தீர்க்கமாக எடுக்க சிறிதளவு பசியைக் காட்டியுள்ளது. இந்த ஒழுங்குமுறை முடக்கம் மற்றவர்கள் உடனடியாக நிரப்பும் ஒரு வெற்றிடத்தை விட்டுச்செல்கிறது.
AI இன் மாறும் புவிசார் அரசியல் நிலப்பரப்பு
திறந்த மூல AI இல் சீனாவின் மூலோபாய உந்துதல் மற்றும் அமெரிக்கா மற்றும் ஐரோப்பிய ஒன்றியத்தின் ஒப்பீட்டுத் தயக்கம் ஆகியவற்றின் சங்கமம் செயற்கை நுண்ணறிவின் புவிசார் அரசியல் நிலப்பரப்பை தீவிரமாக மறுவடிவமைக்கிறது. தொழில்நுட்ப தன்னிறைவை நோக்கிய சீனாவின் உறுதியான உந்துதல், இப்போது திறந்த மூல AI ஐச் சுற்றியுள்ள அதன் உத்திகளை உறுதிப்படுத்துவதை தெளிவாக உள்ளடக்கிய ஒரு பிரச்சாரம், மேம்பட்ட கணினி வன்பொருள் மற்றும் குறைக்கடத்திகளை குறிவைக்கும் நீடித்த அமெரிக்க ஏற்றுமதி கட்டுப்பாடுகளுக்கு ஒரு பகுதியாக புரிந்து கொள்ளப்படலாம், இது தேசிய பாதுகாப்பு, பொருளாதார போட்டித்தன்மை மற்றும் பல ஆண்டுகளுக்கு முந்தைய அறிவுசார் சொத்து பாதுகாப்பு குறித்த அமெரிக்க கவலைகள் காரணமாக செயல்படுத்தப்பட்ட நடவடிக்கைகள். திறந்த மூலத்தை ஏற்றுக்கொள்வது உட்பட சீனாவின் எதிர் நடவடிக்கைகள், இரண்டு உலக வல்லரசுகளுக்கு இடையிலான தொழில்நுட்ப மேலாதிக்கத்திற்கான பரந்த, தீவிரமடையும் மூலோபாய போட்டியைக் குறிக்கின்றன. இதற்கிடையில், EU, பொதுவாக இந்த பந்தயத்தில் அதன் செல்வாக்கை அதே அளவில் நேரடி தொழில்நுட்பப் போட்டி மூலம் வலியுறுத்துவதில்லை, மாறாக அடிப்படை உரிமைகள், தனியுரிமை மற்றும் நேர்மை மற்றும் வழிமுறை பொறுப்புக்கூறல் போன்ற ஜனநாயக மதிப்புகளைப் பாதுகாப்பதில் கவனம் செலுத்தும் உலகளாவிய நெறிகளை அமைப்பதன் மூலம் - இது உண்மையில் முக்கிய உலகளாவிய தொழில்நுட்ப நிறுவனங்களின் கொள்கைகளை வடிவமைத்துள்ளது.
இருப்பினும், திறந்த மூல AI க்கான ஒரு தலைவராகவும் வக்கீலாகவும் தன்னை ஆக்ரோஷமாக நிலைநிறுத்துவதன் மூலம், சீனா ஒரு சவாலை - சில மேற்கத்திய தொழில்நுட்பங்களுக்கான கட்டுப்படுத்தப்பட்ட அணுகல் - ஒரு மூலோபாய வாய்ப்பாக புத்திசாலித்தனமாக மாற்றுகிறது. இது உலக சமூகத்திற்கு, குறிப்பாக அணுகக்கூடிய AI கருவிகளைத் தேடும் வளரும் நாடுகளுக்கு, AI திறந்தநிலையின் அதன் சொந்த தனித்துவமான பதிப்பை திறம்பட உருவாக்கி சந்தைப்படுத்துகிறது. DeepSeek’s R1 போன்ற திறமையான சீன மாதிரிகளின் தோற்றம், Alibaba போன்ற பிற உள்நாட்டு தொழில்நுட்ப ஜாம்பவான்களின் சலுகைகளுடன், உலகளாவிய இயக்கவியலை மாற்றத் தொடங்குகிறது. இது பிரத்தியேகமாக மூடிய, தனியுரிம AI மாதிரிகளுக்கான உலகளாவிய பசியை குறைக்கக்கூடும், குறிப்பாக திறந்த மாற்றுகள் மிகவும் அணுகக்கூடியதாகவோ அல்லது செலவு குறைந்ததாகவோ தோன்றினால். உதாரணமாக, DeepSeek, வரையறுக்கப்பட்ட செயலாக்க சக்தி கொண்ட சாதனங்களுக்கு ஏற்ற சிறிய, குறைவான கணக்கீட்டுத் தேவையுள்ள மாதிரிகளை வெளியிட்டுள்ளது. AI மேம்பாட்டிற்கான ஒரு முக்கிய மையமான Hugging Face போன்ற தளங்கள், தங்கள் சொந்த மாதிரிகளை மேம்படுத்துவதற்காக DeepSeek-R1 இன் பயிற்சி முறைகளின் அம்சங்களை பகுப்பாய்வு செய்து பிரதிபலிக்கத் தொடங்கியுள்ளதாகக் கூறப்படுகிறது. Microsoft, OpenAI, மற்றும் Meta போன்ற மேற்கத்திய தொழில்நுட்ப ஜாம்பவான்கள் கூட மாதிரி வடிகட்டுதல் (model distillation) போன்ற நுட்பங்களை பெருகிய முறையில் ஆராய்ந்து வருகின்றனர், இது DeepSeek வளர்ச்சிகள் காரணமாக ஓரளவு முக்கியத்துவம் பெற்றது.
இந்த வளர்ந்து வரும் நிலப்பரப்பு, சீனா AI திறந்தநிலையைச் சுற்றியுள்ள உலகளாவிய உரையாடலை செயலூக்கமாக முன்னெடுத்துச் செல்வதை வெளிப்படுத்துகிறது, அமெரிக்காவை, முதல் முறையாக, இந்த சொற்பொழிவுக்கு எதிர்வினையாற்றவும் மாற்றியமைக்கவும் கட்டாயப்படுத்துகிறது. அதே நேரத்தில், EU திறந்த மூலம் தொடர்பாக சட்ட மற்றும் ஒழுங்குமுறை மந்தநிலையில் ஓரளவு சிக்கியுள்ளது. இந்த சமச்சீரற்ற தன்மை, திறந்த மூல AI நிர்வாகம் மற்றும் பெருக்கத்தின் முக்கியமான களத்திற்குள் குறிப்பாக ஒரு குறிப்பிடத்தக்க சக்தி ஏற்றத்தாழ்வை உருவாக்குகிறது.
முக்கியமாக, சீனாவால் பரப்பப்படும் திறந்த மூல AI இன் பதிப்பு ஜனநாயக சமூகங்களுக்கு குறிப்பிடத்தக்க கவலைகளைக் கொண்டுள்ளது. CCP ஒரு “இரு-தட” (two-track) அமைப்பை மூலோபாயமாக செயல்படுத்துவதாகத் தெரிகிறது: புதுமைகளைத் தூண்டுவதற்காக AI டெவலப்பர்கள் மற்றும் நிறுவனங்களிடையே ஒப்பீட்டுத் திறந்தநிலை மற்றும் ஒத்துழைப்பை ஊக்குவித்தல், அதே நேரத்தில் தகவல் ஓட்டம் மற்றும் கருத்துச் சுதந்திரத்தைக் கட்டுப்படுத்த பொதுவில் எதிர்கொள்ளும் மாதிரிகளுக்குள் கட்டுப்பாடுகள் மற்றும் வரம்புகளை உட்பொதித்தல். இந்த “திறந்தநிலை” சீனாவின் நிறுவப்பட்ட தொழில்நுட்பக் கட்டுப்பாட்டு முறைகளால் பெரிதும் நிபந்தனைக்குட்படுத்தப்பட்டுள்ளது, இது பெரும்பாலும் மாதிரி உள்ளீடுகள் மற்றும் வெளியீடுகள் அரசு-அங்கீகரிக்கப்பட்ட விவரிப்புகள், CCP மதிப்புகள் மற்றும் ஒரு நேர்மறையான தேசிய பிம்பத்தை முன்னிறுத்த வேண்டும். சீன அதிகாரிகள் திறந்த மூலக் கொள்கைகளை வெளிப்படையாக ஏற்கும் அதன் உலகளாவிய நோக்குநிலை கொண்ட AI பாதுகாப்பு நிர்வாக கட்டமைப்பிற்குள் கூட, AI-உருவாக்கிய உள்ளடக்கம் “கருத்தியல் பாதுகாப்பிற்கு” அச்சுறுத்தல்களை ஏற்படுத்துவது பற்றிய சொல்லும் மொழி உள்ளது - இது சிந்தனை மற்றும் பேச்சு சுதந்திரத்தின் மீதான CCP இன் உள்ளார்ந்த வரம்புகளின் தெளிவான சமிக்ஞையாகும்.
ஜனநாயகக் கொள்கைகள் மற்றும் அடிப்படை மனித உரிமைகளின் பாதுகாப்பில் வேரூன்றிய ஒரு வலுவான, மாற்று கட்டமைப்பு இல்லாமல், உலகம் சீனாவின் மிகவும் கட்டுப்படுத்தப்பட்ட திறந்த மூல AI இன் விளக்கத்தின் பரவலான இனப்பெருக்கம் மற்றும் தத்தெடுப்பைக் காணும் அபாயத்தை எதிர்கொள்கிறது. சர்வாதிகார ஆட்சிகள் மற்றும் உலகளவில் அரசு சாரா நடிகர்கள் கூட இந்த மாதிரிகளை எளிதில் உருவாக்க முடியும், இது அதிநவீன தணிக்கை மற்றும் கண்காணிப்பை செயல்படுத்துகிறது, அதே நேரத்தில் அவர்கள் தொழில்நுட்ப அணுகலை ஊக்குவிப்பதாக தவறாகக் கூறுகின்றனர். எனவே, சீனாவின் தொழில்நுட்ப செயல்திறனைப் பொருத்துவதில் மட்டும் கவனம் செலுத்துவது போதுமானதாக இல்லை. திறந்த மூல AI சகாப்தத்திற்கான ஜனநாயக நிர்வாகத்தை நிறுவுவதிலும் ஊக்குவிப்பதிலும் முன்னிலை வகிப்பதன் மூலம் ஜனநாயகங்கள் மூலோபாய ரீதியாக பதிலளிக்க வேண்டும்.
ஒரு அட்லாண்டிக் கடந்த பாதையை உருவாக்குதல்
தற்போதைய பாதை உலகின் முன்னணி ஜனநாயக நாடுகளுக்கு இடையே தீர்க்கமான நடவடிக்கை மற்றும் புதுப்பிக்கப்பட்ட ஒத்துழைப்பைக் கோருகிறது. அமெரிக்காவும் ஐரோப்பிய ஒன்றியமும் திறந்த மூல இராஜதந்திரம் (open-source diplomacy) என்ற மூலோபாயத்தைத் தொடங்குவதைக் கருத்தில் கொள்ள வேண்டும். இது சர்வாதிகார மாற்றுகளுக்கு ஒரு எதிர் எடையாக உலகெங்கிலும் திறமையான, நம்பகமான மற்றும் உரிமைகளை மதிக்கும் AI மாதிரிகளின் வளர்ச்சி மற்றும் பகிர்வை செயலூக்கமாக முன்னெடுப்பதை உள்ளடக்கியது. இந்த முயற்சிக்கு மையமானது அமெரிக்கா மற்றும் EU ஆல் கூட்டாக உருவாக்கப்பட்ட திறந்த மூல AI க்கான ஒரு ஒருங்கிணைந்த நிர்வாக கட்டமைப்பு (unified governance framework) ஆகும்.
ஒரு ஜனநாயக AI எதிர்காலத்தை திறம்பட வடிவமைக்க, ஒரு பிரத்யேக திறந்த மூல AI மீதான அட்லாண்டிக் கடந்த செயற்குழுவை (transatlantic working group on open-source AI) நிறுவுவது ஒரு முக்கியமான அடுத்த படியாகும். இந்த குழு பொருத்தமான இடங்களில், செயற்கை நுண்ணறிவு மீதான உலகளாவிய கூட்டாண்மை (GPAI) போன்ற தற்போதைய கட்டமைப்புகளைப் பயன்படுத்த வேண்டும், ஆனால் கட்டமைப்பு மேம்பாட்டு செயல்முறை முழுவதும் அட்லாண்டிக்கின் இருபுறமும் உள்ள முன்னணி தொழில்நுட்ப நிறுவனங்கள், கல்வி ஆராய்ச்சியாளர்கள் மற்றும் சிவில் சமூக நிபுணர்களின் செயலில் பங்கேற்பு மற்றும் உள்ளீட்டை முக்கியமாக உறுதி செய்ய வேண்டும். இந்தக் கொள்கை அடிப்படையிலான மற்றும் நடைமுறைக்கு ஏற்ற தரங்களை உருவாக்குவதற்கு இந்த உள்ளடக்கிய அணுகுமுறை இன்றியமையாதது.
இரண்டாவதாக, அமெரிக்கா மற்றும் EU இரண்டும் இந்த பார்வைக்குப் பின்னால் உறுதியான வளங்களை வைக்க வேண்டும். இது கல்வி நிறுவனங்கள், ஆராய்ச்சி ஆய்வகங்கள் மற்றும் புதுமையான ஸ்டார்ட்அப்களுக்கு மூலோபாய ரீதியாக நிதியுதவியை ஜனநாயக மதிப்புகளுடன் வெளிப்படையாக ஒத்துப்போகும் திறந்த மூல AI மாதிரிகளை வளர்ப்பதில் குறிப்பாக கவனம் செலுத்துவதாகும். அத்தகைய மாதிரிகளின் முக்கிய பண்புகள் பின்வருமாறு:
- வடிவமைப்பு மற்றும் பயிற்சித் தரவுகளில் வெளிப்படைத்தன்மை.
- தணிக்கை மற்றும் கையாளுதலுக்கு எதிரான வலுவான பாதுகாப்பு நடவடிக்கைகள்.
- பொறுப்புக்கூறல் மற்றும் சார்பு தணிப்புக்கான வழிமுறைகள்.
- தனியுரிமை மற்றும் அடிப்படை உரிமைகளுக்கான உள்ளமைக்கப்பட்ட மரியாதை.
இந்த ஜனநாயக மாதிரிகளை ஊக்குவிப்பதற்கு வாஷிங்டன் மற்றும் பிரஸ்ஸல்ஸில் உள்ள கொள்கை வகுப்பாளர்களிடமிருந்து ஒரு தெளிவான அங்கீகாரம் தேவைப்படுகிறது, இந்த கொள்கைகளின் அடிப்படையில் ஒரு உலகளாவிய சூழலை வளர்ப்பதன் நீண்டகால மூலோபாய நன்மைகள் திறந்தநிலையுடன் தொடர்புடைய குறுகிய கால அபாயங்களை கணிசமாக விட அதிகமாக உள்ளன. அதே நேரத்தில், EU இந்த குறிப்பிட்ட பகுதியில் அதன் நிறுவப்பட்ட ஒழுங்குமுறை திறமையை மிகவும் தீர்க்கமாகப் பயன்படுத்த வேண்டும். உயர் தரங்களுக்கான அதன் உறுதிப்பாட்டைப் பேணுகையில், பிரஸ்ஸல்ஸ் திறந்த மூல AI இன் சட்ட வரையறை குறித்த அதன் தயக்கத்தை சமாளித்து, தெளிவான வழிகாட்டுதல்கள் மற்றும் சலுகைகளை நிறுவ விரைவாக செயல்பட வேண்டும், இதன் மூலம் உலகளாவிய நெறிகளை வடிவமைப்பதில் சீனாவின் வளர்ந்து வரும் வேகத்தை எதிர்கொள்ள வேண்டும். மேலும் தரைப்பகுதியை விட்டுக்கொடுப்பதைத் தவிர்க்க ஒரு அளவு நிர்வகிக்கப்பட்ட நிச்சயமற்ற தன்மையை ஏற்றுக்கொள்வது அவசியமாக இருக்கலாம்.
அட்லாண்டிக் கடந்த உறவுகள் பல்வேறு முனைகளில் அவ்வப்போது கொந்தளிப்பை எதிர்கொள்ளக்கூடும் என்றாலும், திறந்த மூல AI இல் சீனாவின் எழுச்சியால் முன்வைக்கப்படும் சவால், இந்த களத்தில் போட்டியை விட அமெரிக்க-EU ஒத்துழைப்பின் முழுமையான அவசியத்தை அடிக்கோடிட்டுக் காட்டுகிறது. இந்த முக்கிய தொழில்நுட்ப அரங்கில் தலைமையை மீட்டெடுப்பதற்கு ஒரு ஒருங்கிணைந்த, முன்னோக்கு சிந்தனை கொண்ட அட்லாண்டிக் கடந்த முன்முயற்சி தேவைப்படுகிறது. இந்த முன்முயற்சி செயலூக்கமான கொள்கை மேம்பாடு, இலக்கு ஆராய்ச்சி நிதி மற்றும் புதுமைக்கான ஆதரவை ஒருங்கிணைக்க வேண்டும், இவை அனைத்தும் உலகளவில் மக்களுக்கு உண்மையாக உரிமைகளை மதிக்கும், வெளிப்படையான, ஆக்கப்பூர்வமான மற்றும் அதிகாரம் அளிக்கும் AI எதிர்காலத்திற்கான உலகளாவிய தரத்தை அமைப்பதை நோக்கமாகக் கொண்டிருக்க வேண்டும். தயக்கமான கவனிப்புக்கான நேரம் முடிந்துவிட்டது; தீர்க்கமான, ஒருங்கிணைந்த நடவடிக்கைக்கான தருணம் இப்போது.