AI உலகில், ஒரு முக்கிய AI மாதிரி உருவாக்குனரான DeepSeek மீது, அதன் சமீபத்திய கண்டுபிடிப்புகளுக்கு பயிற்சி அளிப்பதற்காக போட்டியாளரின் தரவைப் பயன்படுத்தியதாக புதுப்பிக்கப்பட்ட குற்றச்சாட்டுகள் எழுந்த வண்ணம் உள்ளன. இந்த முறை, கூகிள் ஜெமினி தான் வெளிச்சத்தில் உள்ளது. DeepSeek-R1-0528 என்று அழைக்கப்படும் DeepSeek-இன் சமீபத்திய AI மாதிரி ஜெமினி மாடலின் வழித்தோன்றலைப் பயன்படுத்தி பயிற்சி பெற்றிருக்கலாம் என்று குற்றச்சாட்டுகள் தெரிவிக்கின்றன.
சாம் பேச் என்ற AI ஆய்வாளர், அதிநவீன உயிரித்தகவல் கருவிகளைப் பயன்படுத்தி DeepSeek-இன் செயற்கை நுண்ணறிவு சேவையை மிக நுணுக்கமாக ஆராய்ந்துள்ளார். பேச்சின் ஆய்வின்படி, DeepSeek-இன் பிரதிபலிப்புகளுக்கும் மற்றும் ஜெமினி பிரதிபலிப்புகளுக்கும் இடையே குறிப்பிடத்தக்க ஒற்றுமைகள் உள்ளன. இது இரண்டுக்கும் இடையே சாத்தியமான வம்சாவளியைக் குறிக்கிறது.
AI துப்பறியும் பணி: ஜெமினி தாக்கத்தை வெளிக்கொணர்தல்
பேச்சின் விசாரணை வெறும் AI-யின் நடத்தையை கவனிப்பதோடு நின்றுவிடவில்லை. AI வளர்ச்சிக்கான பிரபலமான திறந்த மூல தளமான HuggingFace டெவலப்பர் சமூக தளத்தில் அவர் மூழ்கி, தனது GitHub டெவலப்பர் குறியீடு கணக்கின் மூலம் தனது ஆய்வை நடத்தினார். இந்த கடுமையான அணுகுமுறை, AI மாதிரியின் உள் செயல்பாடுகளை உன்னிப்பாகக் கண்காணிக்கவும் மற்றும் ஜெமினி தரவைப் பயன்படுத்துவதைக் குறிக்கும் சாத்தியமான வடிவங்கள் அல்லது குறியீடு பகுதிகளை அடையாளம் காணவும் அவருக்கு உதவியது.
அவர் வெளியிட்ட ஒரு ட்வீட்டில், பேச் தனது கண்டுபிடிப்புகளைச் சுருக்கமாகக் கூறினார், "தீப்ஸீக் R1 சற்று வித்தியாசமாக ஒலிப்பதேன் என்று நீங்கள் ஆச்சரியப்பட்டால், அவர்கள் OpenAI-ல் செயற்கை முறையில் பயிற்சி செய்வதிலிருந்து ஜெமினி வெளியீடுகளுக்கு மாறிவிட்டார்கள் என்று நினைக்கிறேன்." இந்த அறிக்கை OpenAI-யின் மாதிரிகள் உருவாக்கிய செயற்கை தரவைப் பயன்படுத்துவதிலிருந்து ஜெமினியிலிருந்து பெறப்பட்ட தரவைப் பயிற்சிச் செயல்பாட்டின்போது DeepSeek மாற்றியிருக்கலாம் என்று கூறுகிறது.
இத்தகைய மாற்றத்தின் தாக்கங்கள் முக்கியமானவை. DeepSeek உண்மையில் ஜெமினி வழித்தோன்றல் தரவுகளைப் பயன்படுத்தியிருந்தால், அறிவுசார் சொத்துரிமைகள், நியாயமான போட்டி மற்றும் AI வளர்ச்சியைச் சுற்றியுள்ள நெறிமுறை விஷயங்கள் குறித்து கேள்விகள் எழக்கூடும்.
DeepSeek-இன் பதில்: மேம்படுத்தப்பட்ட திறன்கள் மற்றும் செயல்திறன்
மே 2025 இல், DeepSeek HuggingFace மூலம் DeepSeek-R1 மாதிரியின் புதுப்பிக்கப்பட்ட பதிப்பை வெளியிட்டது, அதற்கு DeepSeek-R1-0528 என்று பெயரிடப்பட்டது. இந்த புதுப்பிக்கப்பட்ட மாதிரி மேம்படுத்தப்பட்ட அனுமான திறன்களைக் கொண்டுள்ளது என்று நிறுவனம் கூறுகிறது. மேலும் இது தகவல்களைப் பற்றிய ஆழமான புரிதலையும் செயலாக்கத்தையும் குறிக்கிறது. புதுப்பிக்கப்பட்ட மாதிரி அதிக கணக்கீட்டு ஆதாரங்களைப் பயன்படுத்துகிறது மற்றும் பயிற்சிக்குப் பிறகு வழிமுறை மேம்படுத்தும் வழிமுறைகளை ஒருங்கிணைக்கிறது என்றும் தீப்ஸீக் எடுத்துக்காட்டுகிறது.
DeepSeek-இன்படி, இந்த மேம்பாடுகள் கணிதம், நிரலாக்கம் மற்றும் பொதுவான தர்க்கம் உள்ளிட்ட பல்வேறு மதிப்பீட்டு அளவுகோல்களில் சிறந்த செயல்திறனை உருவாக்கியுள்ளன. O3 மற்றும் ஜெமினி 2.5 ப்ரோ போன்ற முன்னணி மாடல்களின் செயல்திறனை இந்த மாடல் நெருங்கி வருவதாக நிறுவனம் HuggingFace-இல் தெரிவித்துள்ளது.
DeepSeek தனது சமீபத்திய மாதிரியின் மேம்படுத்தப்பட்ட செயல்திறனையும் திறன்களையும் குறிப்பிட்டாலும் ஜெமினி தரவைப் பயன்படுத்தியதாகக் கூறப்படும் குற்றச்சாட்டுகள் இந்த முன்னேற்றங்களுக்கு ஒரு நிழலை வீழ்த்துகின்றன. குற்றச்சாட்டுகள் உண்மையாக இருந்தால், DeepSeek- இன் செயல்திறன் ஆதாயங்கள் அதன் சொந்த கண்டுபிடிப்புகளுக்குக் காரணமா அல்லது போட்டியாளர் தரவைப் பயன்படுத்துவதற்குக் காரணமா என்ற கேள்விகள் எழும்.
EQ-பெஞ்ச் சான்று: கூகிளின் AI ஆயுதக் களஞ்சியத்தின் ஒரு கண்ணோட்டம்
தீயில் எண்ணெயை ஊற்றுவது போல், சாம் பேச் EQ-பெஞ்சின் ஒரு ஸ்கிரீன்ஷாட்டை வழங்கினார். EQ-பெஞ்ச் என்பது AI மாடல்களின் செயல்திறனை மதிப்பிடுவதற்குப் பயன்படுத்தப்படும் ஒரு தளமாகும். அந்த ஸ்கிரீன்ஷாட்டில் ஜெமினி 2.5 ப்ரோ, ஜெமினி 2.5 ஃப்ளாஷ் மற்றும் ஜெம்மா 3 உள்ளிட்ட பல கூகிள் வளர்ச்சி மாதிரிகளின் மதிப்பீட்டு முடிவுகள் காண்பிக்கப்பட்டன.
EQ-பெஞ்ச் தளத்தில் இந்த கூகிள் மாதிரிகள் இருப்பது அவை தீவிரமாக உருவாக்கப்பட்டு, சோதிக்கப்படுகின்றன என்பதைக் குறிக்கிறது. இது மற்ற AI டெவலப்பர்களுக்கு தரவு அல்லது உத்வேகத்தின் ஆதாரமாக இருக்கலாம். ஸ்கிரீன்ஷாட் DeepSeek ஜெமினியின் தரவைப் பயன்படுத்தியது என்பதை நேரடியாக நிரூபிக்கவில்லை என்றாலும் இது போன்ற தரவு கிடைப்பதையும் மற்ற தரப்பினரால் அணுகப்பட்டு பயன்படுத்தக்கூடிய திறனையும் எடுத்துக்காட்டுகிறது.
சந்தேகம் மற்றும் உறுதிப்படுத்தல்: AI வம்சாவளியின் தெளிவற்ற நீர்நிலைகள்
பேச்சின் பகுப்பாய்வு DeepSeek-இன் பயிற்சி முறைகள் குறித்து தீவிரமான கேள்விகளை எழுப்பியுள்ளது. ஜெமினியால் பயிற்சி அளித்ததற்கான வலுவான ஆதாரங்கள் எதுவும் இல்லை என்று டெக் க்ரஞ்ச் சுட்டிக்காட்டுகிறது. மேலும் மற்ற டெவலப்பர்கள் DeepSeek- இன் மாதிரியில் ஜெமினியின் தடயங்களைக் கண்டறிந்துள்ளதாகக் கூறுகின்றனர்.
ஆதாரங்களைச் சுற்றியுள்ள தெளிவின்மை AI மாதிரிகளின் வம்சாவளியைக் கண்டுபிடிப்பதிலும், அவை போட்டியாளர் தரவைப் பயன்படுத்தி பயிற்சி பெற்றுள்ளனவா என்பதைத் தீர்மானிப்பதிலும் உள்ள சவால்களைக் காட்டுகிறது. AI வழிமுறைகளின் சிக்கலான தன்மை மற்றும் பயிற்சிக்கு பயன்படுத்தப்படும் ஏராளமான தரவு ஆகியவை தாக்கத்தின் சரியான மூலங்களைச் சுட்டிக்காட்டுவதை கடினமாக்குகின்றன.
மீண்டும் நிகழும் ஒரு நிகழ்வு: OpenAI உடன் DeepSeek-இன் வரலாறு
DeepSeek போட்டியாளர் தரவைப் பயன்படுத்துவதாக குற்றம் சாட்டப்படுவது இது முதல் முறை அல்ல. டிசம்பர் 2024 இல், DeepSeek இன் V3 மாதிரி தன்னை ChatGPT என்று அடிக்கடி அடையாளம் காண்பதாக பல பயன்பாட்டு டெவலப்பர்கள் குறிப்பிட்டனர். இது OpenAI-யின் பிரபலமான சாட்போட் ஆகும். இந்த கவனிப்பு DeepSeek ChatGPT இலிருந்து கீறப்பட்ட தரவைப் பயன்படுத்தி அதன் மாதிரி பயிற்சி பெற்றது என்றும், இது OpenAI-யின் சேவை விதிமுறைகளை மீறியிருக்கலாம் என்றும் குற்றச்சாட்டுகளுக்கு வழிவகுத்தது.
இந்த குற்றச்சாட்டுகள் மீண்டும் மீண்டும் வருவது DeepSeek-இன் தரவு மூல நடைமுறைகள் குறித்த கவலைகளை எழுப்புகிறது. DeepSeek-இன் மாதிரிகளுக்கும் அதன் போட்டியாளர்களின் மாதிரிகளுக்கும் இடையிலான ஒற்றுமைகள் தற்செயலானவை என்று கருதப்பட்டாலும் திரும்பத் திரும்ப வரும் குற்றச்சாட்டுகள் மேலதிக ஆய்வுக்கு உத்தரவாதம் அளிக்கின்ற நடத்தையின் ஒரு வடிவத்தை முன்மொழிகிறது.
AI பயிற்சி நடைமுறைகளின் நெறிமுறை தாக்கங்கள்
DeepSeek மீதான குற்றச்சாட்டுகள் AI பயிற்சி நடைமுறைகளின் நெறிமுறை தாக்கங்களை எடுத்துக்காட்டுகின்றன. புதுமை மிக முக்கியத்துவம் வாய்ந்த ஒரு வேகமாக வளர்ந்து வரும் துறையில் AI மாதிரிகள் நியாயமான மற்றும் நெறிமுறை வழியில் உருவாக்கப்படுவதை உறுதி செய்வது அவசியம்.
அனுமதி அல்லது சரியான உரிமம் இல்லாமல் போட்டியாளர் தரவைப் பயன்படுத்துவது அறிவுசார் சொத்துரிமைகள் மற்றும் நியாயமான போட்டி குறித்த கேள்விகளை எழுப்புகிறது. இது AI மேம்பாட்டு செயல்முறையின் ஒருமைப்பாட்டைக் குறைமதிப்பிற்கு உட்படுத்துகிறது மற்றும் சட்ட சவால்களுக்கு வழிவகுக்கும்.
மேலும் பொதுவில் கிடைக்கும் ஆதாரங்களில் இருந்து பெறப்பட்டாலும் செயற்கை தரவைப் பயன்படுத்துவது AI மாதிரிகளில் ஒருதலைப்பட்சமான அணுகுமுறைகளையும் தவறான கருத்துகளையும் அறிமுகப்படுத்தலாம். AI மாதிரிகள் நியாயமாகவும், துல்லியமாகவும் மற்றும் நம்பகத்தன்மையுடனும் உள்ளதா என்பதை உறுதிப்படுத்த AI டெவலப்பர்கள் தங்கள் பயிற்சி தரவின் தரம் மற்றும் பிரதிநிதித்துவத்தை கவனமாக மதிப்பீடு செய்வது அவசியம்.
வெளிப்படைத்தன்மை மற்றும் பொறுப்புக்கூறலுக்கான அழைப்பு
AI துறையில் அதிக வெளிப்படைத்தன்மை மற்றும் பொறுப்புக்கூறல் தேவை என்பதை DeepSeek சர்ச்சை அடிக்கோடிட்டுக் காட்டுகிறது. AI டெவலப்பர்கள் தரவு ஆதார நடைமுறைகள் மற்றும் அவற்றின் மாதிரிகளுக்கு பயிற்சி அளிக்க பயன்படுத்தும் முறைகள் குறித்து வெளிப்படையாக இருக்க வேண்டும். அறிவுசார் சொத்துரிமைகள் அல்லது நெறிமுறை வழிகாட்டுதல்களை மீறுவதற்கு அவர்கள் பொறுப்பேற்க வேண்டும்.
தரவு ஆதார மற்றும் AI பயிற்சிக்கு தொழில் சார்ந்த தரநிலைகளை நிறுவுவது ஒரு சாத்தியமான தீர்வாகும். இந்த தரநிலைகள் தரவைப் பெறுவதற்கும் பயன்படுத்துவதற்கும் சிறந்த நடைமுறைகளை கோடிட்டுக் காட்டலாம். மேலும் இணக்கத்தை தணிக்கை செய்வதற்கும் செயல்படுத்துவதற்கும் வழிமுறைகள் கோடிட்டுக் காட்டலாம்.
AI மாதிரிகளின் வம்சாவளியைக் கண்டறியும் கருவிகளையும் உத்திகளையும் உருவாக்குவது மற்றொரு அணுகுமுறையாகும். இந்த கருவிகள் தாக்கத்தின் சாத்தியமான மூலங்களை அடையாளம் காணவும், போட்டியாளர் தரவைப் பயன்படுத்தி ஒரு மாதிரி பயிற்சி பெற்றுள்ளதா என்பதைத் தீர்மானிக்கவும் உதவும்.
AI-யின் நெறிமுறை வளர்ச்சியை உறுதி செய்வது என்பது AI டெவலப்பர்கள், ஆராய்ச்சியாளர்கள், கொள்கை வகுப்பாளர்கள் மற்றும் பொதுமக்கள் ஆகியோரின் கூட்டு முயற்சியாகும். ஒன்றாக இணைந்து செயல்படுவதன் மூலம், அறிவுசார் சொத்துரிமைகளைப் பாதுகாக்கும் மற்றும் நியாயம் மற்றும் பொறுப்புக்கூறலை உறுதி செய்யும் போது புதுமையை ஊக்குவிக்கும் ஒரு கட்டமைப்பை நாம் உருவாக்க முடியும்.
AI மாதிரி பயிற்சிமுறையில் உண்மை அடிப்படையிலான தேடல்
AI மாதிரிகள் எவ்வாறு பயிற்சி அளிக்கப்படுகின்றன என்பது குறித்து DeepSeek நிலைமை அதிகரித்து வரும் கவலையை ஈர்க்கிறது. AI திறன்களை விரைவாக மேம்படுத்தும் கவர்ச்சி வலுவாக இருந்தாலும் இந்த இலக்கை அடையப் பயன்படுத்தப்படும் முறைகள் தீவிரமான நெறிமுறை கருத்தில் கொள்ள வேண்டும். இந்த விஷயத்தின் இதயம் பயிற்சிக்கு பயன்படுத்தப்படும் தரவுகளில் உள்ளது. அது நெறிமுறையாக பெறப்பட்டதா? அது பதிப்புரிமை மற்றும் அறிவுசார் சொத்துக்களை மதிக்கிறதா? AI அன்றாட வாழ்க்கையில் அதிக அளவில் பின்னிப் பிணைந்துள்ளதால் இந்த கேள்விகள் மிகவும் முக்கியத்துவம் வாய்ந்ததாகி வருகின்றன.
AI மாதிரிகளுக்கான தரவின் சரியான ஆதாரங்களைத் தீர்மானிப்பதில் உள்ள சவால்கள் ஒரு கடினமான சிக்கலை எடுத்துக்காட்டுகின்றன. வழிமுறைகளின் சிக்கல்தன்மை மற்றும் தேவைப்படும் தரவுகளின் மிகப்பெரிய அளவு ஆகியவை ஒரு குறிப்பிட்ட மாதிரியின் திறன்களின் தோற்றத்தை வெளிக்கொணர்வது ஒரு முக்கியமான பணியாக இருக்கும் என்று பொருள். மேலும் AI க்கான தடயவியல் அறிவியல் போன்றது. AI வளர்ச்சி துறையில் இன்னும் வெளிப்படையான நடைமுறைகள் மற்றும் AI மாதிரிகளை பகுப்பாய்வு செய்து அவர்களின் பயிற்சி தரவு ஆதாரத்தை வெளிப்படுத்தக்கூடிய அதிநவீன கருவிகளின் வளர்ச்சி தேவைப்படுகிறது.
AI நெறிமுறைகளில் பயிற்சி தரவின் தாக்கம்
AI நெறிமுறைகளில் பயிற்சி தரவின் தாக்கம் கணிசமானது. AI மாதிரிகள் அவை பயிற்சி பெறும் தரவைப் போலவே பாரபட்சமற்றவை.போட்டியாளர்களிடமிருந்து பெறப்பட்ட தரவு அல்லது உள்ளார்ந்த ஒருதலைப்பட்சங்களை வெளிப்படுத்தும் தரவைப் பயன்படுத்துவது திரிபுபடுத்தப்பட்ட முடிவுகளுக்கும் நியாயமற்ற பாகுபாடுகளுக்கும் மற்றும் AI பயன்பாடுகளில் சமரசம் செய்யப்பட்ட ஒருமைப்பாட்டிற்கும் வழிவகுக்கும். எனவே நெறிமுறை AI வளர்ச்சிக்கு பல்வேறு பிரதிநிதித்துவ மற்றும் நெறிமுறையாக மூல ஆதார தரவைப் பயன்படுத்துவதில் வலுவான அர்ப்பணிப்பு தேவைப்படுகிறது.
DeepSeek ஐச் சுற்றியுள்ள சிக்கல்கள் உண்மையான அசல் AI வளர்ச்சிக்கான மதிப்பைப் பற்றியும் ஏற்கனவே உள்ள தரவைக் கொண்டு மாதிரிகளை மேம்படுத்துவதற்கும் இடையிலான பெரிய உரையாடலை எடுத்துக்காட்டுகின்றன. நன்றாக ட்யூனிங் மற்றும் டிரான்ஸ்ஃபர்(transfer) கற்றல் சரியான உத்திகளாக இருக்கும்போது அசல் கட்டிடக்கலைகளை உருவாக்க உறுதிபூண்டுள்ள மற்றும் பயிற்சி முறைகளை வழங்கும் டெவலப்பர்களை AI சமூகம் அங்கீகரிக்க வேண்டும் மற்றும் வெகுமதி அளிக்க வேண்டும். இது AI முன்னேற்றம் அசல் படைப்பாற்றலில் நிறுவப்பட்டிருப்பதை உறுதி செய்கிறது.
AI இல் பொறுப்புக்கான ஒரு கட்டமைப்பு ஒன்றை கட்டமைத்தல்
முன்னோக்கிப் பார்த்தால் AI இல் பொறுப்புக்கான ஒரு கட்டமைப்பை கட்டமைக்க பல முக்கிய நடவடிக்கைகள் தேவைப்படுகின்றன. முதலாவது தரவு ஆதார பயன்பாடு மற்றும் அறிவுசார் சொத்துரிமைகள் குறித்த தெளிவான செயல்படுத்தக்கூடிய வழிகாட்டுதல்களை நிறுவுவதாகும். இந்த வழிகாட்டுதல்கள் தொழில் துறையில் ஒத்துழைப்பை மேம்படுத்தும் அதே வேளையில் தரவு கிரியேட்டர்களின் உரிமைகளைப் பாதுகாப்பதாக இருக்க வேண்டும்.
இரண்டாவது AI வளர்ச்சியில் வெளிப்படைத்தன்மை அவசியம். டெவலப்பர்கள் தங்கள் மாதிரிகளுக்கு பயிற்சி அளிக்க பயன்படுத்தப்படும் தரவு, பயன்படுத்தப்படும் நுட்பங்கள் மற்றும் AI இன் சாத்தியமான வரம்புகள் மற்றும் ஒருதலைப்பட்சங்கள் பற்றி வெளிப்படையாக இருக்க வேண்டும். இந்த வெளிப்படைத்தன்மை நம்பிக்கையை உருவாக்குகிறது மற்றும் AI தொழில்நுட்பங்களின் பொறுப்பான பயன்பாட்டை செயல்படுத்துகிறது.
மேலும் AI அமைப்புகளின் நிலையான கண்காணிப்பு மற்றும் தணிக்கை தேவைப்படுகிறது. சுய ஒழுங்குமுறை(self regulation) மற்றும் சுயாதீன தணிக்கைகள் சாத்தியமான ஒருதலைப்பட்சமான நெறிமுறை சிக்கல்கள் மற்றும் இணக்க சிக்கல்களை அடையாளம் காணவும் சரிசெய்யவும் உதவக்கூடும். நெறிமுறை தரநிலைகள் மற்றும் சமூக மதிப்புகளுடன் AI அமைப்புகள் பொருத்தமாக இருப்பதை உறுதி செய்வதற்கு இந்த நிலையான மேற்பார்வை இன்றியமையாதது.
இறுதியாக AIடெவலப்பர்கள் பயனர்கள் மற்றும் கொள்கை வகுப்பாளர்களுக்கு AI இன் நெறிமுறை விளைவுகளை புரிந்து கொள்ள கல்வி மற்றும் விழிப்புணர்வு திட்டங்கள் தேவைப்படுகின்றன. இந்த திட்டங்கள் தரவு தனியுரிமை, வழிமுறை சாப்பாடுகள் மற்றும் பொறுப்பான AI வடிவமைப்பு போன்ற தலைப்புகளை உள்ளடக்கியிருக்க வேண்டும். மேலும் ஒரு நெறிமுறை விழிப்புணர்வு மற்றும் பொறுப்புணர்வு கலாச்சாரத்தை வளர்க்க வேண்டும்.
தொழில்நுட்ப பக்கத்தை ஆய்வு செய்தல்: AI மாதிரிகளை ரிவர்ஸ்(Reverse) இன்ஜினியரிங் செய்தல்
DeepSeek குற்றச்சாட்டுகளின் ஒரு அற்புதமான அம்சம் என்னவென்றால் AI மாதிரிகளை ரிவர்ஸ் இன்ஜினியரிங் செய்து அவர்களின் பயிற்சி தரவை தீர்மானிப்பதற்கான தொழில்நுட்ப சவாலாகும். இது ஒரு மாதிரியின் நடத்தை மற்றும் வெளியீடுகளைப் பகுப்பாய்வு செய்ய கருவிகள் மற்றும் நுட்பங்களைப் பயன்படுத்துவதை உள்ளடக்குகிறது அதே நேரத்தில் அது பயிற்சி பெற்ற தரவை ஊகிக்க முயற்சிக்கிறது. பேச் செய்தது போல் இது உயிரித்தகவலியல் போன்றது ஆகும். இங்கு ஒரு சிக்கலான உயிரியல் தரவை பிரித்து அதன் தோற்றம் மற்றும் செயல்பாட்டை புரிந்து கொள்ள வேண்டும்.
AI மாதிரிகளில் குறிப்பிட்ட தரவு அல்லது வடிவங்களின் இருப்பைக் கண்டறிய மேம்பட்ட முறைகளை உருவாக்குவதில் ஆராய்ச்சியாளர்கள் கடுமையாக உழைத்து வருகின்றனர். இந்த முறைகள் ஒரு மாதிரியின் நடத்தைக்கும் அறியப்பட்ட டேட்டாசெட்டுகளுக்கும்(data sets) இடையிலான ஒற்றுமைகளை கண்டுபிடிப்பதற்கு புள்ளிவிவர பகுப்பாய்வு, வடிவ அங்கீகாரம் மற்றும் இயந்திர கற்றல் நுட்பங்களைப் பயன்படுத்துகின்றன. இந்த புலம் ஆரம்ப கட்டத்தில் இருந்தாலும் தரவு தவறாக பயன்படுத்தப்பட்ட சந்தேக வழக்குகளில் இன்னும் உறுதியான நிரலை வழங்கும் வாக்குறுதியை இது கொண்டுள்ளது.
AI ஊழல்களின் சமூக தாக்கம்
DeepSeek வழக்கு போன்ற AI ஊழல்களுக்கு பரந்த சமூக விளைவுகள் உள்ளன. அவை AI தொழில்நுட்பத்தில் பொதுமக்களின் நம்பிக்கையை சிதைக்கின்றன தனியுரிமை மற்றும் பாதுகாப்பு பற்றிய கவலைகளை எழுப்புகின்றன மேலும் AIயின் பங்கை சமூகத்தில் விவாதத்தை தூண்டுகின்றன. நம்பிக்கையைப் பராமரிக்கவும் பரவலான சந்தேகத்தைத் தடுக்கவும் இந்த ஊழல்களை விரைவாகவும் வெளிப்படையாகவும் உரையாற்ற வேண்டும்.
சுகாதாரத்துறையில், நிதி மற்றும் ஆளுகை போன்ற முக்கியமான பகுதிகளில் AI அதிகமாக ஒருங்கிணைக்கப்படுவதால் அபாயங்கள் அதிகமாகின்றன. நெறிமுறை மீறல்கள் மற்றும் தரவு மீறல்கள் தனிநபர்கள் மற்றும் சமூகங்களுக்கு குறிப்பிடத்தக்க விளைவுகளை ஏற்படுத்தக்கூடும். வலுவான ஒழுங்குமுறை கட்டமைப்புகள் மற்றும் பொறுப்பான AI வளர்ச்சி நடைமுறைகளின் தேவையை இது எடுத்துக்காட்டுகிறது.
AI பயிற்சி முறையை மறுபரிசீலனை செய்தல்: புதிய அணுகுமுறைகள்
AI பயிற்சி முறையைச் சுற்றியுள்ள சர்ச்சைகள் மிகவும் நெறிமுறையான, திறமையான மற்றும் மீள்திறன் கொண்ட புதிய உத்திகளை ஆராய ஆராய்ச்சியாளர்களைத் தூண்டுகின்றன. ஏற்கனவே உள்ள டேட்டாசெட்டுகளை நம்ப வேண்டிய அவசியத்தை நீக்குவதற்கு ஆரம்பத்திலிருந்தே உருவாக்கப்பட்ட செயற்கை தரவைப் பயன்படுத்துவது ஒரு நம்பிக்கைக்குரிய அணுகுமுறையாகும். செயற்கை தரவு குறிப்பிட்ட தேவைகளைப் பூர்த்தி செய்யும் வகையில் வடிவமைக்கப்படலாம். மேலும் தற்செயல்களுக்குத் தவிர்த்து தரவு தனியுரிமையை உறுதி செய்யலாம்.
மற்றொரு முறை கூட்டமைப்பு கற்றல் ஆகும். இதில் AI மாதிரிகள் அடிப்படைத் தரவை நேரடியாக அணுகுவதற்கு அல்லது பகிர்ந்து கொள்வதற்குப் பதிலாக பரவலாக்கப்பட்ட தரவு ஆதாரங்களில் பயிற்சி அளிக்கப்படுகின்றன. இந்த டெக்னிக் தரவு தனியுரிமையைப் பாதுகாக்கும் அதே வேளையில் கூட்டு கற்றலுக்கும் அனுமதிக்கிறது. மேலும் தரவு அணுகல் கட்டுப்படுத்தப்பட்டுள்ள பகுதிகளில் AI வளர்ச்சிக்கு புதிய சாத்தியக்கூறுகளைத் திறக்கிறது.
கூடுதலாக, டிரான்ஸ்ஃபர்(transfer) கற்றல் மற்றும் மெட்டா(meta)கற்றல் போன்ற உத்திகளைப் பயன்படுத்தி குறைவான தரவுடன் AI மாதிரிகளுக்கு பயிற்சி அளிப்பதற்கான வழிகளை ஆராய்ச்சியாளர்கள் ஆராய்ந்து வருகின்றனர். இந்த உத்திகள் வரையறுக்கப்பட்ட தரவிலிருந்து மாதிரிகளைப் பொதுமைப்படுத்த உதவுகின்றன. பெரிய டேட்டாசெட்டுகளை சார்ந்திருப்பதைக் குறைக்கிறது மற்றும் பயிற்சி செயல்முறையை மிகவும் சிக்கனமாகவும் நிலையானதாகவும் ஆக்குகிறது.
முடிவுரை: நெறிமுறை AIக்கான வழியை வரைபடமாக்கல்
DeepSeek மீதான குற்றச்சாட்டுகள் AI சமூகத்திற்கான ஒரு விழிப்புணர்வாக செயல்படுகின்றன. AI தொழில்நுட்பம் முன்னேற்றமடையும் போது நெறிமுறைக் கோட்பாடுகளைப் பின்பற்றுவது மற்றும் வெளிப்படைத்தன்மை, பொறுப்பு மற்றும் பொறுப்புக்கூறலுக்கு முன்னுரிமை அளிப்பது அவசியம். தெளிவான வழிகாட்டுதல்களை ஏற்படுத்துவதன் மூலமாகவும் ஒத்துழைப்பை வளர்ப்பதன் மூலமாகவும் கல்வி மற்றும் ஆராய்ச்சியில் முதலீடு செய்வதன் மூலமாகவும் தனிப்பட்ட உரிமைகளை மதிப்பதற்கும் கண்டுபிடிப்புகளை மேம்படுத்துவதற்கும் அதே நேரத்தில் AI பொது நன்மைக்குச் சேவை செய்யும் ஒரு எதிர்காலத்தை நாம் உருவாக்க முடியும்.