DeepSeek, ஒரு சீன AI ஆய்வகம், கூகிளின் ஜெமினி AI மாதிரியிலிருந்து தரவைப் பயன்படுத்தி, அதன் சமீபத்திய மறு செய்கையான R1 பகுத்தறிவு AI மாதிரியைப் பயிற்றுவித்திருக்கலாம் என்ற ஊகம் சமீபத்தில் வெளிவந்துள்ளது. இந்த மாதிரி கணிதம் மற்றும் கோடிங் தரநிலைகளில் வலுவான செயல்திறனைக் காட்டியுள்ளது. R1 ஐப் பயிற்றுவிக்கப் பயன்படுத்தப்பட்ட தரவு ஆதாரங்கள் குறித்து DeepSeek மௌனமாக இருக்கும்போது, ஜெமினி அல்லது ஜெமினியின் சில பகுதிகளாவது ஒரு பங்கு வகித்ததாக பல AI ஆராய்ச்சியாளர்கள் முன்மொழிந்துள்ளனர்.
சான்றுகள் மற்றும் குற்றச்சாட்டுகள்
மெல்பேர்னை தளமாகக் கொண்ட, AI க்கான "உணர்ச்சி நுண்ணறிவு" மதிப்பீடுகளை உருவாக்குவதில் நிபுணத்துவம் பெற்ற டெவலப்பரான சாம் பேச், DeepSeek மாதிரி ஜெமினியால் உருவாக்கப்பட்ட வெளியீடுகளைப் பயன்படுத்தி பயிற்றுவிக்கப்பட்டதற்கான சான்று என்று அவர் நம்புவதை வழங்கியுள்ளார். DeepSeek இன் மாதிரி, குறிப்பாக R1-0528 பதிப்பு, Google இன் Gemini 2.5 Pro விரும்பும் மொழி மற்றும் வெளிப்பாடுகளுக்கு விருப்பம் காட்டுகிறது என்று பேச் X (முன்னர் ட்விட்டர்) இல் ஒரு பதிவில் குறிப்பிட்டுள்ளார்.
மேலும், SpeechMap இன் படைப்பாளரின் புனைப்பெயரின் கீழ் இயங்கும் மற்றொரு டெவலப்பர், AI க்கான "சுதந்திர பேச்சு மதிப்பீடு", DeepSeek மாடல் முடிவுகளை நோக்கிச் செயல்படும்போது உருவாக்கும் “எண்ணங்கள்” ஜெமினி தடயங்களை ஒத்திருக்கின்றன என்று அவதானித்துள்ளார். இந்த கவனிப்பு கூற்றுக்களுக்கு மற்றொரு அடுக்கு சதியை சேர்க்கிறது.
போட்டியிடும் AI மாதிரிகளிலிருந்து தரவைப் பயன்படுத்துவதாக DeepSeek எதிர்கொள்வது இது முதல் முறை அல்ல. டிசம்பரில், டெவலப்பர்கள் DeepSeek இன் V3 மாடல் அடிக்கடி தன்னை ChatGPT என அடையாளம் காட்டுகிறது, OpenAI இன் பிரபலமான சாட்போட் தளம். ChatGPT அரட்டை பதிவுகளில் மாதிரி பயிற்சி பெற்றிருப்பதாக இது பரிந்துரைத்தது, இது தரவு பயன்பாட்டு நடைமுறைகள் குறித்த கவலைகளை எழுப்பியது.
ஆழமான குற்றச்சாட்டுகள்: வடிகட்டுதல் மற்றும் தரவு வெளியேற்றம்
இந்த ஆண்டின் தொடக்கத்தில், OpenAI, DeepSeek ஐ வடிகட்டுதல் எனப்படும் ஒரு நுட்பத்தைப் பயன்படுத்துவதுடன் இணைக்கும் சான்றுகளைக் கண்டுபிடித்ததாக Financial Times உடன் பகிர்ந்து கொண்டது. வடிகட்டுதல் என்பது பெரிய, மிகவும் அதிநவீன மாதிரிகளிலிருந்து தரவைப் பிரிப்பதன் மூலம் AI மாதிரிகளைப் பயிற்றுவிப்பதை உள்ளடக்குகிறது. OpenAI இன் முக்கிய ஒத்துழைப்பாளர் மற்றும் முதலீட்டாளரான மைக்ரோசாஃப்ட், 2024 இன் பிற்பகுதியில் OpenAI டெவலப்பர் கணக்குகள் மூலம் குறிப்பிடத்தக்க தரவு வெளியேற்றத்தைக் கண்டறிந்ததாக ப்ளூம்பெர்க் தெரிவித்துள்ளது. இந்த கணக்குகள் DeepSeek உடன் இணைக்கப்பட்டுள்ளதாக OpenAI நம்புகிறது.
வடிகட்டுதல், இயல்பாகவே நெறிமுறையற்றது அல்ல, விதிமுறைகளை மீறும் போது சிக்கலாகிறது. போட்டியிடும் AI அமைப்புகளை உருவாக்க நிறுவனத்தின் மாதிரி வெளியீடுகளைப் பயன்படுத்துவதை OpenAI இன் விதிமுறைகள் வெளிப்படையாகத் தடை செய்கின்றன. இது DeepSeek இந்த விதிமுறைகளுக்கு இணங்குவது குறித்து தீவிர கேள்விகளை எழுப்புகிறது.
AI பயிற்சித் தரவின் தெளிவற்ற நீர்கள்
AI மாதிரிகள் பெரும்பாலும் தங்களை தவறாக அடையாளம் கண்டு, ஒத்த சொற்களிலும் சொற்றொடர்களிலும் ஒன்றுசேர்கின்றன என்பதை ஒப்புக்கொள்வது முக்கியம். இது திறந்த இணையத்தின் இயல்பு காரணமாகும், இது பல AI நிறுவனங்களுக்கு பயிற்சி தரவின் முதன்மை ஆதாரமாக செயல்படுகிறது. இணையம் பெருகிய முறையில் AI மூலம் உருவாக்கப்பட்ட உள்ளடக்கத்துடன் நிறைவுற்றது. உள்ளடக்கப் பண்ணைகள் கிளிಕ್பைட் உருவாக்க AI ஐப் பயன்படுத்துகின்றன, மேலும் போட்கள் Reddit மற்றும் X போன்ற தளங்களில் AI மூலம் உருவாக்கப்பட்ட இடுகைகளுடன் வெள்ளம் புகுத்துகின்றன.
இந்த "மாசுபாடு" பயிற்சி தரவுத்தொகுப்புகளிலிருந்து AI வெளியீடுகளை திறம்பட வடிகட்டுவதை நம்பமுடியாத அளவிற்கு சவாலாக ஆக்குகிறது, DeepSeek வேண்டுமென்றே ஜெமினி தரவைப் பயன்படுத்தியதா என்ற கேள்வியை மேலும் சிக்கலாக்குகிறது.
நிபுணர் கருத்துகள் மற்றும் முன்னோக்குகள்
கூற்றுக்களை திட்டவட்டமாக நிரூபிப்பதில் உள்ள சவால்களை மீறி, சில AI நிபுணர்கள் DeepSeek கூகிளின் ஜெமினியிலிருந்து தரவுகளில் பயிற்சி பெற்றிருக்கலாம் என்று நம்புகிறார்கள். இலாப நோக்கற்ற AI ஆராய்ச்சி நிறுவனமான AI2 இல் ஆராய்ச்சியாளரான நாதன் லாம்பேர்ட் X இல் கூறினார், “நான் DeepSeek ஆக இருந்தால், சிறந்த API மாதிரியிலிருந்து டன் கணக்கில் செயற்கை தரவை நிச்சயமாக உருவாக்குவேன். [DeepSeek] GPU களில் குறைவாகவும் ரொக்கமாக அதிகமாகவும் உள்ளது. இது உண்மையில் அவர்களுக்கு அதிக கணக்கீடு ஆகும்.”
லம்பேர்ட்டின் முன்னோக்கு, DeepSeek அதன் சொந்த திறன்களை மேம்படுத்துவதற்காக இருக்கும் AI மாதிரிகளைப் பயன்படுத்துவதற்கான சாத்தியமான பொருளாதார ஊக்கத்தை எடுத்துக்காட்டுகிறது, குறிப்பாக அதன் வள தடைகளை கருத்தில் கொண்டு.
பாதுகாப்பு நடவடிக்கைகள் மற்றும் எதிர் நடவடிக்கைகள்
AI நிறுவனங்கள் பாதுகாப்பு நடவடிக்கைகளை தீவிரப்படுத்தி வருகின்றன, ஓரளவு வடிகட்டுதல் போன்ற நடைமுறைகளைத் தடுக்க. ஏப்ரலில் OpenAI, சில மேம்பட்ட மாதிரிகளை அணுகுவதற்காக நிறுவனங்கள் ஒரு அடையாள சரிபார்ப்பு செயல்முறையை முடிக்கத் தொடங்கியது. OpenAI இன் API ஆல் ஆதரிக்கப்படும் ஒரு நாட்டிலிருந்து அரசாங்கத்தால் வழங்கப்பட்ட அடையாளத்தை சமர்ப்பிப்பதை இந்த செயல்முறை உள்ளடக்கியது. இந்த பட்டியலில் சீனா குறிப்பிடத்தக்க வகையில் இல்லை.
மற்றொரு நகர்வில், கூகிள் சமீபத்தில் அதன் AI ஸ்டுடியோ டெவலப்பர் இயங்குதளம் மூலம் கிடைக்கும் மாதிரிகளால் உருவாக்கப்பட்ட தடயங்களை "சுருக்கமாக" தொடங்கியது. இந்த நடவடிக்கை ஜெமினி தடயங்களில் போட்டியிடும் மாதிரிகளைப் பயிற்றுவிப்பதை மிகவும் கடினமாக்குகிறது. இதேபோல், Anthropic மே மாதம் தனது சொந்த மாதிரியின் தடயங்களை சுருக்கமாகத் தொடங்கப்போவதாக அறிவித்தது, அதன் “போட்டி நன்மைகளைப்” பாதுகாக்க வேண்டியதன் அவசியத்தைக் காரணம் காட்டி. இந்த நடவடிக்கைகள் AI மாதிரி வெளியீடுகளின் சாத்தியமான தவறான பயன்பாடு குறித்த வளர்ந்து வரும் விழிப்புணர்வையும், அத்தகைய அபாயங்களைக் குறைப்பதற்கான ஒரு செயலூக்கமான முயற்சியையும் குறிக்கின்றன.
விளைவுகள் மற்றும் பின்விளைவுகள்
DeepSeek க்கு எதிரான குற்றச்சாட்டுகள் AI பயிற்சி நடைமுறைகளின் நெறிமுறைகள் மற்றும் சட்டப்பூர்வமான தன்மை குறித்து முக்கிய கேள்விகளை எழுப்புகின்றன. DeepSeek உண்மையில் அதன் R1 பயிற்சியை ஜெமினி தரவைப் பயன்படுத்தினால், அவர்கள் சட்டரீதியான பின்விளைவுகளையும் நற்பெயர் பாதிப்பையும் சந்திக்க நேரிடும். இந்த நிலைமை AI துறையில் அதிக வெளிப்படைத்தன்மை மற்றும் ஒழுங்குமுறையின் தேவையை எடுத்துக்காட்டுகிறது, குறிப்பாக தரவு ஆதாரங்கள் மற்றும் பயன்பாடு குறித்து.
தீப் சீக் எதிரான குற்றச்சாட்டுகள் ஒரு முக்கியமான சங்கடத்தை எடுத்துக்காட்டுகின்றன: AI இல் புதுமை மற்றும் முன்னேற்றத்திற்கான விருப்பத்தை எவ்வாறு சமநிலைப்படுத்துவது மற்றும் அறிவுசார் சொத்துக்களைப் பாதுகாப்பதற்கும் நியாயமான போட்டியை உறுதி செய்வதற்கும் உள்ள தேவை. AI தொழில் வேகமாக வளர்ந்து வருகிறது, மேலும் சிக்கலான சட்ட மற்றும் நெறிமுறை நிலப்பரப்பை வழிநடத்த தெளிவான வழிகாட்டுதல்கள் மற்றும் நெறிக் கட்டமைப்புகள் அவசியம். நிறுவனங்கள் தங்கள் தரவு ஆதாரங்களைப் பற்றி வெளிப்படையாக இருக்க வேண்டும் மற்றும் நம்பிக்கையை நிலைநிறுத்தவும் சாத்தியமான சட்டப் பொறுப்புகளைத் தவிர்க்கவும் சேவை உடன்படிக்கைகளின் விதிமுறைகளுக்கு இணங்க வேண்டும்.
மேலும், பயிற்சி தரவுத்தொகுப்புகளை மாசுபடுத்தும் AI மூலம் உருவாக்கப்பட்ட உள்ளடக்கத்தின் பிரச்சினை முழு AI சமூகத்திற்கும் ஒரு பெரிய சவாலாக உள்ளது. AI மாதிரிகள் நம்பகமான உரை, படங்கள் மற்றும் பிற உள்ளடக்க வடிவங்களை உருவாக்குவதில் அதிக திறமை பெறும்போது, மனிதனால் உருவாக்கப்பட்ட மற்றும் AI மூலம் உருவாக்கப்பட்ட தரவுகளுக்கு இடையில் வேறுபடுத்துவது மிகவும் கடினம். இந்த "மாசுபாடு" AI மாதிரிகளின் ஒரு சீரான தன்மைக்கு வழிவகுக்கும், அங்கு அவை அனைத்தும் ஒத்த சார்புகளையும் வரம்புகளையும் வெளிப்படுத்தத் தொடங்குகின்றன.
இந்த சவாலை எதிர்கொள்ள, AI நிறுவனங்கள் மிகவும் அதிநவீன தரவு வடிகட்டுதல் நுட்பங்களில் முதலீடு செய்ய வேண்டும் மற்றும் மாற்று பயிற்சி தரவு ஆதாரங்களை ஆராய வேண்டும். அவர்கள் தங்கள் பயிற்சி தரவுத்தொகுப்புகளின் கலவை மற்றும் AI மூலம் உருவாக்கப்பட்ட உள்ளடக்கத்தை வடிகட்டப் பயன்படுத்தப்படும் முறைகள் பற்றி அதிகம் வெளிப்படையாக இருக்க வேண்டும்.
AI பயிற்சியின் எதிர்காலத்தை வழிநடத்துதல்
DeepSeek சர்ச்சை AI பயிற்சியின் எதிர்காலம் குறித்த மிகவும் நுணுக்கமான விவாதத்தின் அவசரத் தேவையை அடிக்கோடிட்டுக் காட்டுகிறது. AI மாதிரிகள் அதிக சக்தி வாய்ந்ததாகவும் தரவு மிகவும் அரிதாகவும் மாறும்போது, நிறுவனங்கள் மூலைகளை வெட்டி நெறிமுறையற்ற அல்லது சட்டவிரோத நடைமுறைகளில் ஈடுபட தூண்டப்படலாம். இருப்பினும், இத்தகைய நடைமுறைகள் இறுதியில் AI தொழில்துறையின் நீண்டகால நிலைத்தன்மை மற்றும் நம்பகத்தன்மையை குறைமதிப்பிற்கு உட்படுத்துகின்றன.
பொறுப்பான AI வளர்ச்சியை ஊக்குவிக்கும் நெறிமுறை வழிகாட்டுதல்கள் மற்றும் சட்ட கட்டமைப்புகளை உருவாக்க ஆராய்ச்சியாளர்கள், கொள்கை வகுப்பாளர்கள் மற்றும் தொழில் தலைவர்கள் அடங்கிய கூட்டு முயற்சி தேவை. இந்த வழிகாட்டுதல்கள் தரவு ஆதாரங்கள், வெளிப்படைத்தன்மை மற்றும் பொறுப்புக்கூறல் போன்ற சிக்கல்களைக் கையாள வேண்டும். அவை நெறிமுறை மற்றும் நிலையான AI பயிற்சி நடைமுறைகளில் முதலீடு செய்ய நிறுவனங்களுக்கு ஊக்கமளிக்க வேண்டும்.
AI பயிற்சியின் எதிர்காலத்திற்கான முக்கிய பரிசீலனைகள்:
- வெளிப்படைத்தன்மை: AI தங்கள் AI மாதிரிகளைப் பயிற்றுவிக்கப் பயன்படுத்தப்படும் தரவு ஆதாரங்கள் மற்றும் AI மூலம் உருவாக்கப்பட்ட உள்ளடக்கத்தை வடிகட்டப் பயன்படுத்தப்படும் முறைகள் பற்றி நிறுவனங்கள் வெளிப்படையாக இருக்க வேண்டும்.
- நெறிமுறைகள்: AI வளர்ச்சி நியாயம், பொறுப்புக்கூறல் மற்றும் அறிவுசார் சொத்துக்கான மரியாதை ஆகியவற்றை மேம்படுத்தும் ஒழுக்க நெறிமுறைகளை கடைபிடிக்க வேண்டும்.
- ஒழுங்குமுறை: AI பயிற்சி மூலம் ஏற்படும் தனித்துவமான சவால்களை எதிர்கொள்ளும் தெளிவான சட்ட கட்டமைப்புகளை கொள்கை வகுப்பாளர்கள் உருவாக்க வேண்டும்.
- ஒத்துழைப்பு: ஆராய்ச்சியாளர்கள், கொள்கை வகுப்பாளர்கள் மற்றும் தொழில் தலைவர்கள் AI வளர்ச்சிக்கான நெறிமுறை வழிகாட்டுதல்கள் மற்றும் சிறந்த நடைமுறைகளை உருவாக்க ஒன்றிணைந்து செயல்பட வேண்டும்.
- தரவு பன்முகத்தன்மை: AI பயிற்சி சார்புகளைக் குறைக்கவும் AI மாடல்களின் ஒட்டுமொத்த செயல்திறனை மேம்படுத்தவும் தரவு பன்முகத்தன்மைக்கு முன்னுரிமை அளிக்க வேண்டும்.
- நிலைத்தன்மை: AI பயிற்சி நிலையான முறையில் நடத்தப்பட வேண்டும், அதன் சுற்றுச்சூழல் தாக்கத்தை குறைக்கிறது.
- பாதுகாப்பு: அங்கீகரிக்கப்படாத அணுகல் மற்றும் AI மாதிரிகள் மற்றும் பயிற்சி தரவைப் பயன்படுத்துவதிலிருந்து பாதுகாப்பு நடவடிக்கைகள் பாதுகாக்க வேண்டும்.
இந்த முக்கிய பரிசீலனைகளை நிவர்த்தி செய்வதன் மூலம், AI தொழில் AI வளர்ச்சி பொறுப்புணர்வோடு நடத்தப்படுவதை உறுதி செய்ய முடியும், சாத்தியமான அபாயங்களைக் குறைக்கும்போது புதுமையை ஊக்குவிக்கிறது.
முன்னோக்கி செல்லும் பாதை
DeepSeek க்கு எதிரான குற்றச்சாட்டுகள் AI சமூகத்திற்கான ஒரு நனவுநிலையாக செயல்படுகின்றன. அவை AI வளர்ச்சியில் அதிக வெளிப்படைத்தன்மை, நெறிமுறை நடத்தை மற்றும் வலுவான பாதுகாப்புகளின் முக்கியமான தேவையை அடிக்கோடிட்டுக் காட்டுகின்றன. AI நம் வாழ்வின் பல்வேறு அம்சங்களில் ஊடுருவி வருவதால், அதன் பொறுப்பான மற்றும் நன்மை பயக்கும் பயன்பாட்டை உறுதி செய்வதற்காக தெளிவான எல்லைகளையும் நெறிமுறை வழிகாட்டுதல்களையும் நிறுவுவது கட்டாயமாகும்.
DeepSeek வழக்கு, அதன் இறுதி முடிவு எதுவாக இருந்தாலும், நிச்சயமாக AI நெறிமுறைகளைச் சுற்றியுள்ள விவாதத்தை வடிவமைக்கும் மற்றும் AI வளர்ச்சியின் எதிர்காலப் பாதையை பாதிக்கும். புதுமைக்கான முயற்சியை நெறிமுறை கோட்பாடுகளுக்கான அர்ப்பணிப்பு மற்றும் எங்கள் செயல்களின் சாத்தியமான விளைவுகளை அங்கீகரிப்பதுடன் கட்டுப்படுத்த வேண்டும் என்பதற்கான நினைவூட்டலாக இது செயல்படுகிறது. AI இன் எதிர்காலம் இந்த சிக்கலான சவால்களை ஞானத்துடனும் தொலைநோக்கு பார்வையுடனும் வழிநடத்தும் நமது திறனில் உள்ளது.