DeepSeek AI: கூகிள் ஜெமினியின் பங்கு?

AI உலகில் DeepSeek-இன் R1 பகுத்தறிவு மாதிரியின் மேம்படுத்தப்பட்ட பதிப்பின் சமீபத்திய வெளியீட்டைத் தொடர்ந்து ஊகங்கள் பெருகி வருகின்றன. இந்த சீன AI ஆய்வகம் கணிதம் மற்றும் குறியீட்டு தரநிலைகளில் ஈர்க்கக்கூடிய திறன்களை வெளிப்படுத்தும் ஒரு மாதிரியை வெளியிட்டுள்ளது. இருப்பினும், இந்த மாதிரியைப் பயிற்றுவிக்கப் பயன்படுத்தப்பட்ட தரவின் தோற்றம் விவாதத்தின் மைய புள்ளியாக மாறியுள்ளது, சில AI ஆராய்ச்சியாளர்கள் Google-இன் ஜெமினி AI குடும்பத்துடன் சாத்தியமான தொடர்பு இருப்பதாகக் கூறுகின்றனர்.

DeepSeek-இன் R1 மாதிரி: ஒரு நெருக்கமான பார்வை

DeepSeek-இன் R1 பகுத்தறிவு மாதிரி கணித சிக்கலைத் தீர்ப்பது மற்றும் குறியீட்டு பணிகள் போன்ற பகுதிகளில் அதன் செயல்திறனுக்காக கவனத்தை ஈர்த்துள்ளது. மாதிரியின் பயிற்சியில் பயன்படுத்தப்பட்ட குறிப்பிட்ட தரவு மூலங்களை வெளியிட நிறுவனம் தயங்குவது AI ஆராய்ச்சி சமூகத்தில் ஊகங்களுக்கு வழிவகுத்தது.

ஜெமினி செல்வாக்கின் குற்றச்சாட்டுகள்

விவாதத்தின் மையமாக DeepSeek தனது சொந்த மாதிரியை மேம்படுத்த Google-இன் ஜெமினியிலிருந்து வெளியீடுகளைப் பயன்படுத்தியிருக்கலாம் என்ற சாத்தியக்கூறு உள்ளது. “உணர்ச்சி நுண்ணறிவு” மதிப்பீடுகளில் நிபுணத்துவம் பெற்ற AI டெவலப்பர் சாம் பேச், DeepSeek-இன் R1-0528 மாதிரி Google-இன் ஜெமினி 2.5 Pro விரும்பும் மொழி மற்றும் வெளிப்பாடுகளுக்கு விருப்பங்களை வெளிப்படுத்துகிறது என்று பரிந்துரைக்கும் ஆதாரங்களை முன்வைத்தார். இந்த அவதானிப்பு மட்டும் உறுதியான ஆதாரமாக இல்லாவிட்டாலும், இது நடந்து வரும் விவாதத்திற்கு பங்களித்துள்ளது.

விவாதத்திற்கு மற்றொரு அடுக்கைச் சேர்ப்பது, பேச்சு சுதந்திரத்தில் கவனம் செலுத்தும் AI மதிப்பீட்டுக் கருவியான “SpeechMap”-இன் அநாமதேய உருவாக்கியவர், DeepSeek மாதிரி உருவாக்கும் “எண்ணங்கள்” - அது முடிவுகளை எடுக்கப் பயன்படுத்தும் உள் பகுத்தறிவு செயல்முறைகள் - ஜெமினியின் தடய முறைகளுக்கு ஒற்றுமையைக் காட்டுகின்றன என்று குறிப்பிட்டார். DeepSeek Google-இன் ஜெமினி குடும்பத்திலிருந்து தரவைப் பயன்படுத்தியதா என்ற கேள்வியை இது மேலும் தீவிரப்படுத்துகிறது.

முந்தைய குற்றச்சாட்டுகள் மற்றும் OpenAI-இன் கவலைகள்

DeepSeek போட்டியிடும் AI மாதிரிகளிலிருந்து தரவைப் பயன்படுத்துகிறது என்ற குற்றச்சாட்டுகளை எதிர்கொள்வது இது முதல் முறை அல்ல. டிசம்பரில், DeepSeek-இன் V3 மாதிரி தன்னை அடிக்கடி ChatGPT, OpenAI-இன் பரவலாகப் பயன்படுத்தப்படும் AI சாட்போட் என்று அடையாளப்படுத்தியது காணப்பட்டது. இந்த மாதிரி ChatGPT அரட்டை பதிவுகளில் பயிற்சி பெற்றிருக்கலாம் என்ற சந்தேகங்களுக்கு இது வழிவகுத்தது.

சதியை அதிகப்படுத்தும் வகையில், DeepSeek வடிகட்டுதலைப் பயன்படுத்துவதுடன் தொடர்புடையது என்பதற்கான ஆதாரங்களை OpenAI இந்த ஆண்டின் தொடக்கத்தில் கண்டுபிடித்ததாக கூறப்படுகிறது, இது பெரிய, சக்திவாய்ந்த AI மாதிரிகளிலிருந்து சிறியவற்றைப் பயிற்றுவிக்க தரவைப் பிரித்தெடுக்கும் ஒரு நுட்பமாகும். அறிக்கைகளின்படி, OpenAI-இல் ஒரு முக்கிய ஒத்துழைப்பாளரும் முதலீட்டாளருமான Microsoft, 2024 ஆம் ஆண்டின் பிற்பகுதியில் OpenAI டெவலப்பர் கணக்குகள் மூலம் குறிப்பிடத்தக்க தரவு வெளியேற்றத்தைக் கண்டறிந்தது. இந்த கணக்குகள் DeepSeek உடன் தொடர்புடையவை என்று OpenAI நம்புகிறது.

வடிகட்டுதல் AI உலகில் ஒரு பொதுவான நடைமுறையாக இருந்தாலும், OpenAI-இன் சேவை விதிமுறைகள் போட்டியிடும் AI அமைப்புகளை உருவாக்க நிறுவனத்தின் மாதிரி வெளியீடுகளைப் பயன்படுத்துவதை வெளிப்படையாகத் தடை செய்கின்றன. இது OpenAI-இன் கொள்கைகளை மீறுவது குறித்து கவலைகளை எழுப்புகிறது.

AI “மாசு”வின் சவால்

AI மாதிரிகள், பயிற்சியின் போது, ​​ஒத்த சொற்களஞ்சியம் மற்றும் சொற்றொடரில் ஒன்றிணைக்கப்படலாம் என்பதை கருத்தில் கொள்வது முக்கியம். AI நிறுவனங்களுக்கான பயிற்சி தரவுகளின் முதன்மை ஆதாரமான திறந்த வலை, AI மூலமாக உருவாக்கப்பட்ட உள்ளடக்கம் நிறைந்துள்ளதே இதற்கு முக்கிய காரணம். உள்ளடக்கம் பண்ணைகள் கிளிக்பைட் கட்டுரைகளை உருவாக்க AI ஐப் பயன்படுத்துகின்றன, மேலும் போட்கள் AI மூலமாக உருவாக்கப்பட்ட இடுகைகளுடன் Reddit மற்றும் X போன்ற தளங்களை வெள்ளத்தில் மூழ்கடிக்கின்றன.

தரவு நிலப்பரப்பின் இந்த “மாசுபாடு” AI மூலமாக உருவாக்கப்பட்ட உள்ளடக்கத்தை பயிற்சி தரவுத்தொகுதிகளிலிருந்து திறம்பட வடிகட்டுவதை சவாலாக ஆக்குகிறது. இதன் விளைவாக, ஒரு மாதிரியின் வெளியீடு உண்மையிலேயே மற்றொரு மாதிரியின் தரவிலிருந்து பெறப்பட்டதா அல்லது இணையத்தில் AI மூலமாக உருவாக்கப்பட்ட உள்ளடக்கத்தின் எங்கும் நிறைந்த இருப்பை வெறுமனே பிரதிபலிக்கிறதா என்பதை வேறுபடுத்துவது கடினம்.

இந்த விஷயத்தில் நிபுணர் கண்ணோட்டங்கள்

இணைப்பை திட்டவட்டமாக நிரூபிப்பதில் உள்ள சவால்கள் இருந்தபோதிலும், AI ஆராய்ச்சி நிறுவனமான AI2-இல் ஆராய்ச்சியாளர் நாதன் லாம்பேர்ட் போன்ற AI நிபுணர்கள், DeepSeek கூகிள் ஜெமினியிலிருந்து தரவுகளில் பயிற்சி பெறுவதற்கான சாத்தியக்கூறு நம்பகமானது என்று நம்புகின்றனர். DeepSeek GPU கிடைப்பதில் கட்டுப்பாடுகளை எதிர்கொண்டு, போதுமான நிதி ஆதாரங்களைக் கொண்டிருந்தால், சிறந்த கிடைக்கும் API மாதிரியால் உருவாக்கப்பட்ட செயற்கை தரவைப் பயன்படுத்துவது மிகவும் திறமையானதாக இருக்கலாம் என்று லாம்பேர்ட் கூறுகிறார்.

AI நிறுவனங்கள் பாதுகாப்பு நடவடிக்கைகளை மேம்படுத்துகின்றன

வடிகட்டுதல் மற்றும் அங்கீகரிக்கப்படாத தரவு பயன்பாடு பற்றிய கவலைகள் AI நிறுவனங்களை அவற்றின் பாதுகாப்பு நடவடிக்கைகளை வலுப்படுத்த தூண்டுகின்றன. OpenAI, எடுத்துக்காட்டாக, இப்போது சில மேம்பட்ட மாதிரிகளை அணுகுவதற்கு நிறுவனங்கள் ஒரு ஐடி சரிபார்ப்பு செயல்முறையை முடிக்க வேண்டும். இந்தச் செயல்முறை OpenAI-இன் API ஆல் ஆதரிக்கப்படும் ஒரு நாட்டிலிருந்து அரசாங்கத்தால் வழங்கப்பட்ட ஐடியை அவசியமாக்குகிறது, சீனாவைத் தவிர்த்து.

கூகிள் வடிகட்டுதலுக்கான சாத்தியத்தை குறைக்க நடவடிக்கைகளை எடுத்துள்ளது. அவை சமீபத்தில் அதன் AI ஸ்டுடியோ டெவலப்பர் இயங்குதளம் மூலம் கிடைக்கும் மாதிரிகளால் உருவாக்கப்பட்ட தடயங்களை “சுருக்கமாக”த் தொடங்கின. ஜெமினி தடயங்களிலிருந்து விரிவான தகவல்களைப் பிரித்தெடுப்பதன் மூலம் போட்டியிடும் மாதிரிகளைப் பயிற்றுவிப்பதை இது மிகவும் கடினமாக்குகிறது. இதேபோல், Anthropic அதன் சொந்த மாதிரியின் தடயங்களை சுருக்கமாக வழங்குவதற்கான திட்டங்களையும் அறிவித்தது, அதன் “போட்டி நன்மைகளைப்” பாதுகாக்க வேண்டியதன் அவசியத்தை மேற்கோளிட்டுள்ளது.

AI நிலப்பரப்புக்கான தாக்கங்கள்

DeepSeek மற்றும் Google-இன் ஜெமினி தரவைப் பயன்படுத்தும் சாத்தியக்கூறு பற்றிய சர்ச்சை AI நிலப்பரப்பில் பல முக்கியமான சிக்கல்களை எடுத்துக்காட்டுகிறது:

  • தரவு நெறிமுறைகள் மற்றும் பொறுப்பான AI மேம்பாடு: AI மாதிரிகள் பெருகிய முறையில் அதிநவீனமாக மாறும்போது, ​​தரவு ஆதாரங்கள் மற்றும் பயன்பாடு தொடர்பான நெறிமுறை பரிசீலனைகள் மிக முக்கியமானதாகின்றன. AI நிறுவனங்கள் நெறிமுறை வழிகாட்டுதல்களை கடைபிடிக்கின்றன என்பதையும் மற்றவர்களின் அறிவுசார் சொத்து உரிமைகளை மதிக்கின்றன என்பதையும் உறுதி செய்ய வேண்டும்.
  • AI மூலமாக உருவாக்கப்பட்ட உள்ளடக்கத்தின் தாக்கம்: இணையத்தில் AI மூலமாக உருவாக்கப்பட்ட உள்ளடக்கத்தின் பெருக்கம் AI பயிற்சிக்கு ஒரு சவாலாக உள்ளது. தரவு பெருகிய முறையில் “மாசுபட்டதாக” மாறும்போது, ​​AI மாதிரிகளின் தரம் மற்றும் ஒருமைப்பாட்டை உறுதி செய்வது மிகவும் கடினமாகிறது.
  • வெளிப்படைத்தன்மை மற்றும் பொறுப்புக்கூறலுக்கான தேவை: AI நிறுவனங்கள் தங்கள் தரவு மூலங்கள் மற்றும் பயிற்சி முறைகள் குறித்து வெளிப்படையாக இருக்க வேண்டும். இது நம்பிக்கையை வளர்க்கவும், AI பொறுப்புடன் உருவாக்கப்பட்டு பயன்படுத்தப்படுவதை உறுதி செய்யவும் உதவும்.
  • வலுவான பாதுகாப்பு நடவடிக்கைகளின் முக்கியத்துவம்: AI தொழில் பெருகிய முறையில் போட்டி நிறைந்ததாக மாறும்போது, ​​AI நிறுவனங்கள் தங்கள் தரவு மற்றும் மாதிரிகளுக்கான அங்கீகரிக்கப்படாத அணுகலைத் தடுக்க வலுவான பாதுகாப்பு நடவடிக்கைகளை செயல்படுத்த வேண்டும்.

AI மேம்பாட்டின் எதிர்காலம்

DeepSeek சர்ச்சை AI தொழில்துறை எதிர்கொள்ளும் சிக்கலான நெறிமுறை மற்றும் தொழில்நுட்ப சவால்களை நினைவூட்டுகிறது. AI தொடர்ந்து வளர்ச்சியடைந்து வருவதால், AI நிறுவனங்கள், ஆராய்ச்சியாளர்கள் மற்றும் கொள்கை வகுப்பாளர்கள் AI சமூகத்திற்கு பயனளிக்கும் வகையில் உருவாக்கப்பட்டு பயன்படுத்தப்படுவதை உறுதிப்படுத்த ஒன்றிணைந்து செயல்படுவது முக்கியம். வெளிப்படைத்தன்மை, பொறுப்புக்கூறல் மற்றும் நெறிமுறை தரவு நடைமுறைகளை ஊக்குவிப்பது இதில் அடங்கும்.

தொடர்ச்சியான விவாதம்: DeepSeek க்கு எதிரான குற்றச்சாட்டுகள் தரவு தனியுரிமை, பாதுகாப்பு மற்றும் நெறிமுறை AI மேம்பாடு குறித்து அதிகரித்து வரும் கவலைகளை அடிக்கோடிட்டுக் காட்டுகின்றன. தரவு ஆதாரங்களில் வெளிப்படைத்தன்மை இல்லாமை மற்றும் முறையான தரவு சேகரிப்பு மற்றும் அங்கீகரிக்கப்படாத தரவு ஸ்கிராப்பிங்கிற்கு இடையிலான பெருகிய முறையில் தெளிவற்ற கோடுகள் AI சமூகத்திற்குள் தெளிவான விதிமுறைகள் மற்றும் பொறுப்பான நடைமுறைகளை கோருகின்றன. தொழில்நுட்பம் முன்னேறும்போது, ​​தொழிற்துறை அறிவுசார் சொத்து உரிமைகள், “AI மாசு” ஆபத்து மற்றும் எதிர்பாராத விளைவுகளுக்கான சாத்தியம் போன்ற சிக்கல்களை சமாளிக்க வேண்டும்.

AI பயிற்சி தரவின் நெறிமுறைகள்: DeepSeek ஐச் சுற்றியுள்ள சர்ச்சை AI மாதிரிகளுக்கான பயிற்சி தரவைச் சேகரிக்கும்போது விளையாடும் நெறிமுறை பரிசீலனைகளையும் எடுத்துக்காட்டுகிறது. இணையத்திலிருந்து ஸ்கிராப் செய்யப்பட்ட பரந்த தரவுத்தொகுதிகளின் அதிகரித்து வரும் சார்புநிலையுடன், தரவு யாருக்குச் சொந்தமானது, எப்படி ஒப்புதல் பெறப்படுகிறது (அல்லது புறக்கணிக்கப்படுகிறது), தரவு நியாயமாகவும் பொறுப்புடனும் பயன்படுத்தப்படுகிறதா போன்ற கேள்விகள் மிகவும் அவசரமானதாகி வருகின்றன. பதிப்புரிமைச் சட்டங்களை மதிக்கும், தனிப்பட்ட தகவல்களைப் பாதுகாக்கும் மற்றும் சார்புநிலையைக் குறைக்கும் தரவு ஆதாரங்களுக்கான தெளிவான வழிகாட்டுதல்களை AI சமூகம் நிறுவ வேண்டும்.

AI ஆதிக்கத்திற்கான பந்தயம்: DeepSeek க்கு எதிரான குற்றச்சாட்டுகள் அமெரிக்காவிற்கும் சீனாவிற்கும் இடையிலான AI ஆதிக்கத்திற்கான தீவிர பந்தயத்தின் பிரதிபலிப்பாகவும் கருதப்படலாம். இரண்டு நாடுகளும் AI ஆராய்ச்சி மற்றும் மேம்பாட்டில் பில்லியன் கணக்கான டாலர்களை ஊற்றுகின்றன, மேலும் முன்னேற்றங்களை அடைவதற்கான அழுத்தம் போட்டியையும் சாத்தியமான குறுக்குவழிகளையும் தூண்டுகிறது. DeepSeek உண்மையில் OpenAI அல்லது Google தரவைப் அனுமதியின்றிப் பயன்படுத்தினால், அது அமெரிக்க-சீனா தொழில்நுட்ப உறவை நீண்ட காலமாக பாதித்துள்ள ஆக்கிரமிப்பு தந்திரோபாயங்கள் மற்றும் அறிவுசார் சொத்து திருட்டுக்கான எடுத்துக்காட்டாக விளக்கப்படலாம்.

AI சுற்றுச்சூழல் அமைப்புக்கான பரந்த தாக்கங்கள்: தற்போது DeepSeek மீது கவனம் செலுத்தப்பட்டாலும், இந்த வழக்கு முழு AI சுற்றுச்சூழல் அமைப்பிற்கும் பரந்த தாக்கங்களைக் கொண்டிருக்கலாம். DeepSeek ChatGPT அல்லது Gemini இலிருந்து தரவை முறைகேடாகப் பயன்படுத்தியிருப்பது நிரூபிக்கப்பட்டால், அது மற்ற நிறுவனங்களைத் அவர்களின் சொந்த தரவு ஆதார நடைமுறைகளை கடுமையாக தணிக்கத் தூண்டலாம், இது வளர்ச்சியின் வேகத்தைக் குறைத்து செலவுகளை அதிகரிக்கும். அமெரிக்கா மற்றும் சீனாவில் மட்டுமல்ல, உலகளவில் தரவு சேகரிப்பு மற்றும் பயன்பாடு குறித்து கடுமையான விதிமுறைகளுக்கு இது வழிவகுக்கலாம்.

செயற்கையாக உருவாக்கப்பட்ட தரவின் தாக்கம்: செயற்கை தரவு, லாம்பேர்ட்டால் முன்மொழியப்பட்டது, பயிற்சி மாதிரிகளுக்கான சாத்தியமான மாற்றாக AI மேம்பாட்டின் எதிர்காலத்தைப் பற்றிய அடிப்படை கேள்விகளை எழுப்புகிறது. செயற்கை தரவுத்தொகுதிகள் நிஜ உலக தரவு தொடர்பான சில நெறிமுறை மற்றும் பதிப்புரிமை கவலைகளைத் தவிர்க்கும்போது, ​​செயற்கை தரவுகளில் பயிற்சி அளிக்கப்பட்ட மாதிரிகளின் செயல்திறன் மற்றும் வலிமை ஆகியவை அசல் தரவுகளில் பயிற்சி அளிக்கப்பட்டவற்றுடன் ஒத்துப்போவதில்லை. துல்லியம் மற்றும் நம்பகத்தன்மையில் சமரசம் செய்யாமல் தொழிற்துறையின் தேவைகளைப் பூர்த்தி செய்யும் அதிநவீன செயற்கை தரவுத்தொகுதிகளை உருவாக்க AI சமூகம் புதுமையான அணுகுமுறைகளைக் கண்டறிய வேண்டும்.

மாதிரி சுருக்கமானது தரவு ஆட்சி வடிவமாக: Google மற்றும் Anthropic ஆகியவை தங்கள் மாதிரிகளால் உருவாக்கப்பட்ட தடயங்களை “சுருக்கமாக”த் தொடங்குவதற்கான சமீபத்திய முடிவு, AI தொழில்துறையில் தரவு ஆட்சிக்கு அதிகரித்து வரும் முக்கியத்துவத்தை குறிக்கிறது. மாதிரிகளின் முடிவெடுக்கும் செயல்முறைகளுக்குள் உள்ள விரிவானத் தகவல்களைக் கறைபடுத்தி, நிறுவனங்கள் மற்றவர்கள் தங்கள் தொழில்நுட்பங்களை தலைகீழாக மாற்றுவதைக் கடினமாக்குகின்றன. இந்த அணுகுமுறை வர்த்தக இரகசியங்களைப் பாதுகாக்கவும், நெறிமுறை தரவு ஆதார நடைமுறைகளை நிலைநிறுத்தவும் உதவும், ஆனால் இது AI அமைப்புகளின் வெளிப்படைத்தன்மை மற்றும் விளக்கத் திறன் பற்றிய கேள்விகளையும் எழுப்புகிறது.

நெறிமுறை மற்றும் சட்டரீதியான பரிசீலனைகளுடன் புதுமையைச் சமநிலைப்படுத்துதல்: DeepSeek சர்ச்சை AI புதுமையை ஊக்குவிப்பதற்கும், அறிவுசார் சொத்துரிமைகளைப் பாதுகாப்பதற்கும், நெறிமுறை கோட்பாடுகளுக்கு இணங்குவதை உறுதி செய்வதற்கும் இடையே ஒரு கவனமான சமநிலையை ஏற்படுத்த வேண்டியதன் அவசியத்தை அடிக்கோடிட்டுக் காட்டுகிறது. AI மாதிரிகள் அதிநவீனத்திலும் சிக்கலிலும் தொடர்ந்து வளரும் நிலையில், தொழிற்துறை எதிர்கொள்ளும் நெறிமுறை மற்றும் சட்டரீதியான சவால்கள் மேலும் உச்சரிக்கப்படும். இந்த கவலைகளுக்கு இடையே சரியான சமநிலையைக் காண்பது AI இன் பொறுப்பான மற்றும் நிலையான வளர்ச்சியை ஊக்குவிப்பதற்கு முக்கியமானதாக இருக்கும்.

DeepSeek தொடர்பாக எழுந்துள்ள குற்றச்சாட்டுகளானது தரவுப் பாதுகாப்பு, பாதுகாப்பு மற்றும் நெறிமுறைகளின் அடிப்படையிலான AI மேம்பாடு ஆகியவற்றில் நிலவும் கவலைகளை அதிகரித்துள்ளன. தரவு எங்கிருந்து பெறப்பட்டது என்பதில் வெளிப்படைத்தன்மை இல்லாதது மற்றும் முறையான தரவு சேகரிப்பு மற்றும் அங்கீகரிக்கப்படாத தரவு சுரண்டலுக்கு இடையேயான எல்லைகள் மங்கலாக இருப்பதால், AI சமூகத்திற்குள் தெளிவான விதிமுறைகள் மற்றும் பொறுப்பான நடைமுறைகள் தேவைப்படுகின்றன. தொழில்நுட்பம் முன்னேறும்போது, அறிவுசார் சொத்துரிமைகள், “AI மாசு” ஏற்படும் ஆபத்து மற்றும் கணிக்க முடியாத விளைவுகள் போன்ற சிக்கல்களைத் தொழிற்துறையினர் கையாள வேண்டும்.

AI மாதிரிக்கு பயிற்சி தரவு திரட்டும்போது ஏற்படும் நெறிமுறை எண்ணங்களையும் DeepSeek தொடர்பாக எழுந்துள்ள சர்ச்சைகள் காட்டுகின்றன. இணையத்திலிருந்து பெறப்பட்ட தரவுத்தொகுதிகளைச் சார்ந்திருப்பதால், தரவு யாருக்குச் சொந்தமானது, ஒப்புதல் எவ்வாறு பெறப்பட்டது அல்லது புறக்கணிக்கப்பட்டது, தரவு நியாயமான முறையில் மற்றும் பொறுப்புடன் பயன்படுத்தப்படுகிறதா போன்ற கேள்விகள் அதிகம் எழுகின்றன. பதிப்புரிமைச் சட்டங்களை மதிக்கும், தனிப்பட்ட விவரங்களைப் பாதுகாக்கும் மற்றும் பாரபட்சங்களைச் குறைக்கும் தரவுச் ஆதாரங்களுக்கான தெளிவான வழிமுறைகளை AI சமூகம் நிறுவ வேண்டும்.

DeepSeek-இன் மீது சுமத்தப்பட்டுள்ள குற்றச்சாட்டுகளை அமெரிக்காவுக்கும் சீனாவுக்கும் இடையிலான AI ஆதிக்கத்திற்கான போட்டியாக கருதலாம். AI ஆராய்ச்சி மற்றும் உருவாக்கத்திற்காக இரண்டு நாடுகளும் பில்லியன் கணக்கான டாலர்களை கொட்டி வருகின்றன, மேலும் முன்னேற்றங்களைச் செய்து ஆதிக்கத்தை நிலைநாட்டுவதில் அதிக அழுத்தம் உள்ளது. DeepSeek நிறுவனம் அனுமதியின்றி OpenAI அல்லது Google-ன் தரவைப் பயன்படுத்தினால், அமெரிக்கா-சீனா தொழில்நுட்ப உறவில் உள்ள அறிவுசார் சொத்து உரிமை மீறல்களுக்கான சான்றாக இதைக் கருதலாம்.

தற்போது DeepSeek மீது கவனம் செலுத்தப்பட்டாலும், இந்த சம்பவமானது AI சுற்றுச்சூழலில் பரந்த அளவிலான தாக்கங்களை ஏற்படுத்தும். DeepSeek நிறுவனம் சட்டவிரோதமாக ChatGPT அல்லது Gemini-லிருந்து தரவுகளைப் பெற்றிருந்தால், மற்ற நிறுவனங்கள் தங்களுடைய தரவு சேகரிப்பு முறைகளை தீவிரமாக மறு ஆய்வு செய்யத் தூண்டப்படுவார்கள், இது அதிக செலவுகளுக்கு வழிவகுக்கும்.

செயற்கை தரவுகளின் மூலம் பயிற்சி மாதிரிகளை உருவாக்குவது, ஏற்கனவே இருக்கும் AI பயிற்சி முறைகளுக்குச் சிறந்த மாற்றாகும். செயற்கை தரவுகளின் பயன்பாடு பதிப்புரிமை தொடர்பான கவலைகளைத் தவிர்த்தாலும், நிஜ உலக தரவுகளுடன் ஒப்பிடும்போது துல்லியம் மற்றும் நம்பகத்தன்மை குறையும் சாத்தியம் உள்ளது. AI சமூகம் துல்லியத்தன்மையில் சமரசம் செய்யாமல் தொழில்துறையின் தேவைகளைப் பூர்த்தி செய்யும் அதிநவீன செயற்கை தரவுத்தொகுப்புகளை உருவாக்குவதற்கான புதுமையான வழிகளைக் கண்டறிய வேண்டும்.

மாதிரி சுருக்கம் என்பது AI துறையில் தரவு நிர்வாகத்தின் முக்கியத்துவத்தை எடுத்துக்காட்டுகிறது. Google மற்றும் Anthropic-ன் மாதிரிகள் மூலமாக உருவாக்கப்பட்ட தரவுகளை சுருக்குவதன் மூலம், மற்றவர்கள் தங்கள் தொழில்நுட்பத்தை மாற்றுவதை கடினமாக்குகின்றனர். இது வணிக இரகசியங்களைப் பாதுகாக்க உதவும், AI அமைப்புகளின் வெளிப்படைத்தன்மை மற்றும் நம்பகத்தன்மை பற்றிய கேள்விகளையும் எழுப்புகிறது.