சிக்கலான வலை: மெட்டா, டீப்ஸீக், இராணுவ AI

செனட் விசாரணையில் வெளிச்சத்துக்கு வந்த தொடர்பு

அமெரிக்க செனட் விசாரணையின்போது, மெட்டா நிறுவனத்தின் முன்னாள் நிர்வாகி சாரா வின்-வில்லியம்ஸ், சீனாவுடனான மெட்டாவின் தொழில்நுட்ப ஒத்துழைப்புகள் குறித்து வெளிப்படுத்தினார். இது மெட்டாவின் திறந்த மூல உத்தி மற்றும் தேசிய பாதுகாப்புக்கு ஏற்படக்கூடிய அபாயங்கள் குறித்து சர்ச்சையை ஏற்படுத்தியது. செனட்டர் ஜோஷ் ஹாவ்லி, மெட்டாவின் நடவடிக்கைகள் சீனாவில் இராணுவ AI வளர்ச்சியைத் தூண்டும் என்றும், இது அமெரிக்காவிற்கு ஒரு குறிப்பிடத்தக்க அச்சுறுத்தலாக இருக்கும் என்றும் எச்சரித்தார்.

வின்-வில்லியம்ஸ் குறிப்பாக, மெட்டாவின் லாமா மாதிரி சீன ஆராய்ச்சி குழுக்களால் பரவலாக ஏற்றுக்கொள்ளப்பட்டது மட்டுமல்லாமல், 2024 ஆம் ஆண்டின் பிற்பகுதியில் தொடங்கப்பட்ட டீப்ஸீக் மாதிரியுடன் நேரடி தொழில்நுட்ப தொடர்புகளையும் கொண்டுள்ளது என்று சுட்டிக்காட்டினார். சீன AI துறையில் வளர்ந்து வரும் நட்சத்திரமான டீப்ஸீக், OpenAI’s o1 மாடலுக்கு போட்டியாக செலவு குறைந்த மற்றும் திறமையான R1 மாடலுக்காக உலகளவில் அங்கீகாரம் பெற்றது. வின்-வில்லியம்ஸின் கூற்றுப்படி, டீப்ஸீக்கின் வெற்றிக்கு மெட்டாவின் லாமா மாதிரி ஒரு முக்கிய காரணம், இது சீனாவின் AI முன்னேற்றங்களுக்கு ஒரு அடித்தளமாக செயல்பட்டது.

திறந்த மூலத்திலிருந்து இராணுவ பயன்பாடுகள் வரை

லாமா மாதிரியை சீன இராணுவம் ஏற்றுக்கொண்டது குறிப்பாக ஆபத்தான விளைவுகளை ஏற்படுத்தக்கூடும். மக்கள் விடுதலை இராணுவம் (PLA), இராணுவ AI வளர்ச்சிக்காக லாமா மாதிரியைப் பயன்படுத்துவதாக அறிக்கைகள் தெரிவிக்கின்றன. PLA இன் இராணுவ அறிவியல் அகாடமியில் (AMS) உள்ள ஆராய்ச்சியாளர்கள், உளவு சேகரிப்பு மற்றும் செயல்பாட்டு முடிவுகளை எடுப்பதற்காக லாமா 13B மாதிரியை அடிப்படையாகக் கொண்டு ‘சாட் பிட்’ (ChatBIT) என்ற AI கருவியை உருவாக்கியுள்ளனர். கூடுதலாக, சீனாவின் விமான தொழில் கழகம் (AVIC), மின்னணு போர் ஜாமிங் உத்திகளைப் பயிற்றுவிக்க லாமா 2 மாடலைப் பயன்படுத்துகிறது. இந்த நிகழ்வுகள் மெட்டாவின் திறந்த மூல மாதிரி இராணுவ பயன்பாடுகளுக்காக மறுபயன்பாடு செய்யப்படுவதை நிரூபிக்கின்றன, இது அதன் நோக்கம் கொண்ட வணிக மற்றும் கல்வி பயன்பாடுகளுக்கு அப்பாற்பட்டது.

சீனாவின் சந்தை அணுகலுக்கான மெட்டாவின் ஈடுபாடு

2015 ஆம் ஆண்டு முதல், சீன கம்யூனிஸ்ட் கட்சி அதிகாரிகளுடன் AI தொழில்நுட்பம் குறித்து மெட்டா கலந்துரையாடல்களைத் தொடங்கியது என்றும், இதன் மூலம் தொழில்நுட்ப ஒத்துழைப்புகள் மூலம் சீன சந்தையில் நுழைவதற்கு முயன்றது என்றும் வின்-வில்லியம்ஸ் வெளிப்படுத்தினார். மெட்டா உள் ஆவணங்களில், சீனா தனது உலகளாவிய செல்வாக்கை மேம்படுத்தவும் சீனக் கனவை ஊக்குவிக்கவும் உதவும் என்று சீன அதிகாரிகளை நம்ப வைக்க நிறுவனம் முயன்றது. இந்த உத்தி மெட்டாவின் வணிக நலன்களைப் பின்பற்றுவதையும், புவிசார் அரசியல் அபாயங்களை அலட்சியம் செய்வதையும் அடிக்கோடிட்டுக் காட்டுகிறது.

தேசிய பாதுகாப்பு கவலைகள்: சீனாவின் இராணுவ AI வளர்ச்சிக்கு உதவுதல்

மெட்டாவின் நடவடிக்கைகள் தொழில்நுட்ப வெளியேற்றத்திற்கு மட்டுமல்லாமல், சீனாவின் இராணுவ AI வளர்ச்சிக்கு மறைமுகமாக உதவுகின்றன என்றும், அதன் மூலோபாய செல்வாக்கை பலப்படுத்துகின்றன என்றும் செனட்டர் ஹாவ்லி எச்சரித்தார். இது வணிக பரிசீலனைகளைத் தாண்டி அமெரிக்க தேசிய பாதுகாப்புக்கு ஒரு குறிப்பிடத்தக்க அச்சுறுத்தலை ஏற்படுத்துகிறது என்றும் அவர் வாதிட்டார். அமெரிக்காவுக்கும் சீனாவுக்கும் இடையே நடந்து வரும் தொழில்நுட்பப் போட்டியில், சீனாவின் தொழில்நுட்ப முன்னேற்றத்தைத் தடுக்க அமெரிக்கா AI சிப்களுக்கு கடுமையான ஏற்றுமதி கட்டுப்பாடுகளை விதித்துள்ளது. இருப்பினும், மெட்டாவின் திறந்த மூல உத்தி தற்செயலாக சீனா இந்தக் கட்டுப்பாடுகளைத் தவிர்க்க ஒரு வழியை வழங்குகிறது, இதன் மூலம் அமெரிக்காவின் மூலோபாய முயற்சிகளை குறைமதிப்பிற்கு உட்படுத்துகிறது.

திறந்த மூல AI மீதான விவாதம்: கண்டுபிடிப்பு மற்றும் பாதுகாப்பு

லாமா மற்றும் டீப்ஸீக் இடையேயான தொடர்பு, திறந்த மூல AI இன் பாதுகாப்பு தாக்கங்கள் குறித்த விவாதத்தை மீண்டும் தூண்டியுள்ளது. மெட்டாவின் தலைமை AI விஞ்ஞானி யான் லேகூன் போன்ற திறந்த மூல ஆதரவாளர்கள், இது உலகளாவிய ஒத்துழைப்பு மற்றும் புதுமையை ஊக்குவிக்கிறது என்று வாதிடுகின்றனர். டீப்ஸீக்கின் வெற்றியை சீனா அமெரிக்காவை விஞ்சிவிட்டதற்கான சான்றாக அல்ல, திறந்த மூல மாதிரியின் சான்றாக அவர்கள் பார்க்கிறார்கள். டீப்ஸீக் லாமா உட்பட திறந்த மூல வளங்களைப் பயன்படுத்தி, தொழில்நுட்ப முன்னேற்றங்களை அடைய தனது சொந்த கண்டுபிடிப்புகளுடன் இணைத்து, உலகெங்கிலும் உள்ள ஆராய்ச்சியாளர்களுக்கு நன்மை பயத்தது என்று லேகூன் சுட்டிக்காட்டுகிறார்.

லாமாவுக்கு மெட்டா பயன்பாட்டு கட்டுப்பாடுகளை நிறுவியிருந்தாலும், இராணுவம், போர், அணுசக்தி தொழில் அல்லது உளவு நடவடிக்கைகள் போன்றவற்றுக்கு பயன்படுத்த தடை விதிக்கப்பட்டாலும், மாதிரியின் திறந்த தன்மை இந்த கட்டுப்பாடுகளை பெரிதும் பயனற்றதாக ஆக்குகிறது. சீன ஆராய்ச்சி நிறுவனங்கள் மெட்டாவின் விதிமுறைகளை புறக்கணித்து லாமாவை இராணுவ களங்களுக்கு பயன்படுத்தியுள்ளன, அதே நேரத்தில் இத்தகைய தவறான பயன்பாட்டைத் தடுக்க மெட்டாவிடம் பயனுள்ள வழிமுறைகள் இல்லை. இது திறந்த மூல AI உடன் தொடர்புடைய ஒழுங்குமுறை மற்றும் அமலாக்க சவால்களை எடுத்துக்காட்டுகிறது, இது புதுமை மற்றும் பாதுகாப்புக்கு இடையிலான சமநிலையை மறுபரிசீலனை செய்ய அமெரிக்க கொள்கை வகுப்பாளர்களைத் தூண்டுகிறது.

டீப்ஸீக்கின் எழுச்சி: அமெரிக்காவிற்கு ஒரு எச்சரிக்கை மணி

டீப்ஸீக்கின் தோற்றம் குறைந்த வளங்களைக் கொண்டே சீனா முன்னேற்றங்களை அடைய முடியும் என்பதை நிரூபிக்கிறது, இது அமெரிக்காவிற்கு ஒரு எச்சரிக்கை மணியாக செயல்படுகிறது. திறந்த மூலத்தின் ‘கட்டுப்பாடற்ற’ தன்மையைக் காரணம் காட்டி பொறுப்பைத் தவிர்க்க மெட்டா செய்யும் முயற்சிகள், சீனாவின் முந்தைய தொழில்நுட்ப ஒத்துழைப்புகளால் குறைமதிப்பிற்கு உட்படுத்தப்படுகின்றன, இது தற்போதைய சர்ச்சைக்கான அடித்தளத்தை அமைத்தது.

முன்னோக்கி செல்லும் பாதை: திறந்த மூல AI நிலப்பரப்பை வழிநடத்துதல்

அமெரிக்காவுக்கும் சீனாவுக்கும் இடையிலான தொழில்நுட்பப் போட்டி அதிகரிக்கும் சூழலில், திறந்த மூல AI உடன் தொடர்புடைய தேசிய பாதுகாப்பு கவலைகளை அமெரிக்கா எதிர்கொள்ள வேண்டும் மற்றும் வலுவான ஒழுங்குமுறை மற்றும் பாதுகாப்பு நடவடிக்கைகளை எடுக்க வேண்டும். லாமாவின் இராணுவமயமாக்கல் போன்ற சம்பவங்கள் பெருகி, உலகளாவிய பாதுகாப்பு மற்றும் தொழில்நுட்ப ஒழுங்கிற்கு அதிக சவால்களை ஏற்படுத்தும்.

  • திறந்த மூல AI நிர்வாகத்தை மறுபரிசீலனை செய்தல்: லாமா-டீப்ஸீக் வழக்கு திறந்த மூல AI நிர்வாகத்தை மறுபரிசீலனை செய்ய வேண்டிய அவசர தேவையை அடிக்கோடிட்டுக் காட்டுகிறது. திறந்த மூல மாதிரிகள் தவறான நோக்கங்களுக்காக குறிப்பாக இராணுவ களத்தில் பயன்படுத்தப்படாமல் இருப்பதை உறுதி செய்வதற்கான வழிமுறைகளை கொள்கை வகுப்பாளர்கள் ஆராய வேண்டும்.
  • ஏற்றுமதி கட்டுப்பாடுகளை வலுப்படுத்துதல்: தேசிய பாதுகாப்பு அபாயத்தை ஏற்படுத்தும் நாடுகளுக்கு AI தொழில்நுட்பங்களை அங்கீகரிக்கப்படாத பரிமாற்றத்தை தடுக்க அமெரிக்கா ஏற்றுமதி கட்டுப்பாடுகளை வலுப்படுத்த வேண்டும். ஏற்கனவே உள்ள கட்டுப்பாடுகளை திறந்த மூல மாதிரிகள் தவிர்க்க அனுமதிக்கும் ஓட்டைகளைச் சரிசெய்வதும் இதில் அடங்கும்.
  • பாதுகாப்பான AI வளர்ச்சியை ஊக்குவித்தல்: தவறாகப் பயன்படுத்தப்படுவதற்கான வாய்ப்புகள் குறைவாக இருக்கும் பாதுகாப்பான AI தொழில்நுட்பங்களின் ஆராய்ச்சி மற்றும் வளர்ச்சிக்கு அமெரிக்கா முதலீடு செய்ய வேண்டும். பாதுகாப்பு மற்றும் கட்டுப்பாட்டிற்கு முன்னுரிமை அளிக்கும் மாற்று AI வளர்ச்சி முன்னுதாரணங்களை ஆராய்வதும் இதில் அடங்கும்.
  • சர்வதேச ஒத்துழைப்பை மேம்படுத்துதல்: பொறுப்பான வளர்ச்சி மற்றும் AI பயன்பாட்டிற்கான சர்வதேச விதிமுறைகள் மற்றும் தரங்களை நிறுவ அமெரிக்கா தனது நட்பு நாடுகளுடன் இணைந்து செயல்பட வேண்டும். திறந்த மூல AI சுற்றுச்சூழல் அமைப்பில் வெளிப்படைத்தன்மை மற்றும் பொறுப்புணர்வை ஊக்குவிப்பதும் இதில் அடங்கும்.
  • நெறிமுறை AI புதுமையை வளர்ப்பது: நெறிமுறை AI புதுமையை ஊக்குவிக்கும் ஒரு சூழலை அமெரிக்கா உருவாக்க வேண்டும். AI பாதுகாப்பு மற்றும் சீரமைப்பு குறித்த ஆராய்ச்சியை ஊக்குவிப்பதோடு, AI மேம்பாடு மற்றும் பயன்பாட்டிற்கான நெறிமுறை வழிகாட்டுதல்களை உருவாக்குவதும் இதில் அடங்கும்.

கொள்கை வகுப்பாளர்களுக்கான முக்கிய பரிசீலனைகள்

மெட்டா-டீப்ஸீக் நிலைமை கொள்கை வகுப்பாளர்களுக்கு சிக்கலான சவால்களை முன்வைக்கிறது. இது திறந்த மூல AI இன் நன்மைகளுக்கும் தேசிய பாதுகாப்பைப் பாதுகாக்க வேண்டிய அவசியத்திற்கும் இடையில் சமநிலையை ஏற்படுத்தும் ஒரு நுணுக்கமான அணுகுமுறையை தேவைப்படுகிறது. சில முக்கிய பரிசீலனைகள் பின்வருமாறு:

  • ஆபத்து மதிப்பீடு: திறந்த மூல AI மாதிரிகளின் சாத்தியமான பாதிப்புகள் மற்றும் தவறான பயன்பாட்டு காட்சிகளை அடையாளம் காண முழுமையான ஆபத்து மதிப்பீடுகளை நடத்துதல்.
  • வெளிப்படைத்தன்மை: திறந்த மூல AI மாதிரிகளின் வளர்ச்சி மற்றும் பயன்பாட்டில் வெளிப்படைத்தன்மையை ஊக்குவித்தல், அவற்றுக்கு பயிற்சி அளிக்கப் பயன்படும் தரவு மற்றும் வழிமுறைகளை வெளிப்படுத்துவது உட்பட.
  • பொறுப்புக்கூறல்: திறந்த மூல AI மாதிரிகளின் தவறான பயன்பாட்டிற்கு தெளிவான பொறுப்புக்கூறல் கோடுகளை நிறுவுதல், டெவலப்பர்கள் மற்றும் பயனர்கள் தங்கள் செயல்களுக்கு பொறுப்பேற்கச் செய்வது உட்பட.
  • அமலாக்கம்: திறந்த மூல AI மாதிரிகளின் தவறான பயன்பாட்டைத் தடுக்க பயனுள்ள அமலாக்க வழிமுறைகளை உருவாக்குதல், தடைகள் மற்றும் பிற அபராதங்கள் உட்பட.
  • பொது விழிப்புணர்வு: திறந்த மூல AI இன் சாத்தியமான அபாயங்கள் மற்றும் நன்மைகள் பற்றியும், பொறுப்பான AI மேம்பாடு மற்றும் பயன்பாட்டின் முக்கியத்துவம் பற்றியும் பொது விழிப்புணர்வை ஏற்படுத்துதல்.

தொழில்நுட்ப நிறுவனங்களின் பங்கு

திறந்த மூல AI முன்வைக்கும் சவால்களை எதிர்கொள்வதில் தொழில்நுட்ப நிறுவனங்களுக்கும் ஒரு முக்கியமான பங்கு உண்டு. அவர்கள்:

  • வலுவான பாதுகாப்பு நடவடிக்கைகளை செயல்படுத்தவும்: தங்கள் திறந்த மூல AI மாதிரிகளின் தவறான பயன்பாட்டைத் தடுக்க வலுவான பாதுகாப்பு நடவடிக்கைகளை செயல்படுத்தவும். இதில் தெளிவான பயன்பாட்டு கட்டுப்பாடுகளை நிறுவுதல் மற்றும் இணக்கத்தை கண்காணிக்க மற்றும் செயல்படுத்த கருவிகளை உருவாக்குதல் ஆகியவை அடங்கும்.
  • பாதுகாப்பு ஆராய்ச்சியில் ஒத்துழைக்கவும்: பாதுகாப்பான AI மேம்பாடு மற்றும் பயன்பாட்டிற்கான சிறந்த நடைமுறைகளை உருவாக்க ஆராய்ச்சியாளர்கள் மற்றும் கொள்கை வகுப்பாளர்களுடன் ஒத்துழைக்கவும்.
  • AI பாதுகாப்பு ஆராய்ச்சியில் முதலீடு செய்யவும்: AI அமைப்புகள் மனித மதிப்புகள் மற்றும் குறிக்கோள்களுடன் ஒத்துப்போகின்றன என்பதை உறுதிப்படுத்த AI பாதுகாப்பு மற்றும் சீரமைப்பு குறித்த ஆராய்ச்சியில் முதலீடு செய்யவும்.
  • நெறிமுறை AI மேம்பாட்டை ஊக்குவிக்கவும்: நெறிமுறை வழிகாட்டுதல்களை ஏற்றுக்கொள்வதன் மூலமும், நெறிமுறை பரிசீலனைகள் குறித்து ஊழியர்களுக்கு பயிற்சி அளிப்பதன் மூலமும் நெறிமுறை AI மேம்பாட்டை ஊக்குவிக்கவும்.
  • கொள்கை வகுப்பாளர்களுடன் ஈடுபடவும்: திறந்த மூல AI க்கான பயனுள்ள விதிமுறைகள் மற்றும் கொள்கைகளை உருவாக்க கொள்கை வகுப்பாளர்களுடன் ஈடுபடவும்.

திறந்த மூல AI இன் எதிர்காலத்தை வழிநடத்துதல்

திறந்த மூல AI முன்வைக்கும் சவால்களை நாம் எவ்வாறு திறம்பட எதிர்கொள்கிறோம் என்பதைப் பொறுத்தே அதன் எதிர்காலம் உள்ளது. அபாயங்களைக் குறைப்பதற்கும் பொறுப்பான மேம்பாட்டை ஊக்குவிப்பதற்கும் முன் தடுப்பு நடவடிக்கைகளை எடுப்பதன் மூலம், தேசிய பாதுகாப்பு மற்றும் நெறிமுறை மதிப்புகளைப் பாதுகாக்கும் அதே நேரத்தில் திறந்த மூல AI இன் நன்மைகளை நாம் பயன்படுத்திக் கொள்ளலாம்.

லாமா-டீப்ஸீக் வழக்கு, வேகமாக உருவாகும் AI தொழில்நுட்பங்களை எதிர்கொள்ள விழிப்புணர்வு மற்றும் ஒத்துழைப்பு தேவை என்பதை நமக்கு நினைவூட்டுகிறது. கொள்கை வகுப்பாளர்கள், தொழில்நுட்ப நிறுவனங்கள் மற்றும் ஆராய்ச்சியாளர்கள் ஒன்றிணைந்து செயல்படுவதன் மூலம், AI மனிதகுலம் அனைவருக்கும் பயனளிக்கும் ஒரு எதிர்காலத்தை உருவாக்க முடியும்.