தீப்ஸீக்கின் AI: ஜெமினியால் பயிற்றுவிக்கப்பட்டதா?சர்ச்சை

செயற்கை நுண்ணறிவு உலகில் சர்ச்சைகள் புதிதல்ல. தற்போது சீன AI ஆய்வகமான தீப்ஸீக் (DeepSeek) சர்ச்சையில் சிக்கியுள்ளது. சமீபத்தில், தீப்ஸீக் அதன் R1 பகுப்பாய்வு மாதிரியின் மேம்படுத்தப்பட்ட பதிப்பை வெளியிட்டது, இது கணிதம் மற்றும் குறியீட்டு அளவுகோல்களைக் கையாள்வதில் ஈர்க்கக்கூடிய திறன்களைக் காட்டுகிறது. இருப்பினும், இந்த மாதிரியைப் பயிற்றுவிக்கப் பயன்படுத்தப்பட்ட தரவின் ஆதாரம் AI ஆராய்ச்சியாளர்களிடையே கணிசமான விவாதத்தைத் தூண்டியுள்ளது. இந்தத் தரவுகள் கூகிளின் ஜெமினி (Gemini) AI மாதிரிக் குடும்பத்திலிருந்து வந்திருக்கலாம் என்று சிலர் ஊகிக்கின்றனர். இந்த சந்தேகம் நெறிமுறை நடைமுறைகள், தரவு ஆதாரம் மற்றும் AI தொழில்துறையின் போட்டிச் சூழல் குறித்து முக்கியமான கேள்விகளை எழுப்புகிறது.

முன்வைக்கப்பட்ட சான்றுகள்

மெல்போர்னைச் சேர்ந்த டெவலப்பரான சாம் பேச் (Sam Paech), தீப்ஸீக்கின் புதிய மாதிரி, ஜெமினியால் உருவாக்கப்பட்ட வெளியீடுகளில் பயிற்சி பெற்றது என்பதற்கான ஆதாரத்தை முன்வைத்துள்ளார். பேச்சின் கூற்றுப்படி, R1-0528 எனக் குறிப்பிடப்படும் தீப்ஸீக் மாதிரி, கூகிளின் ஜெமினி 2.5 ப்ரோ (Gemini 2.5 Pro) விரும்பும் குறிப்பிட்ட வார்த்தைகள் மற்றும் வெளிப்பாடுகளுக்கு விருப்பம் காட்டுகிறது. இந்த ஒரு அவதானிப்பு மட்டும் உறுதியானதாக இல்லாவிட்டாலும், இது ஒரு சிவப்பு எச்சரிக்கை மற்றும் மேலதிக விசாரணையை கோருகிறது.

மற்றொரு டெவலப்பரான ஸ்பீச்மேப் (SpeechMap) என்பவர், தீப்ஸீக் மாதிரியின் சுவடுகள் - ஒரு முடிவை நோக்கி வேலை செய்யும் போது அது உருவாக்கும் “எண்ணங்கள்” - “ஜெமினி தடயங்களைப் போலப் படிக்கப்படுகின்றன” என்று சுட்டிக் காட்டுகிறார். இந்த மொழிசார் வடிவங்கள் மற்றும் சிந்தனை செயல்முறைகளின் சங்கமம், தீப்ஸீக் பயிற்சியின்போது ஜெமினியின் வெளியீடுகளைப் பயன்படுத்தியிருக்கலாம் என்ற சந்தேகத்தை மேலும் தூண்டுகிறது.

தீப்ஸீக் மீது முன்வைக்கப்பட்ட குற்றச்சாட்டுகள்

தீப்ஸீக் அதன் AI மாதிரிகளைப் போட்டியிடும் AI அமைப்புகளிலிருந்து தரவைப் பயன்படுத்திப் பயிற்றுவிப்பது இது முதல் முறையல்ல. கடந்த டிசம்பரில், டெவலப்பர்கள் தீப்ஸீக்கின் V3 மாதிரி பெரும்பாலும் தன்னை OpenAI-இன் AI இயங்கும் சாட்போட் தளமான ChatGPT என்று அடையாளம் காட்டுகிறது என்பதைக் கவனித்தனர். இந்த வினோதமான நடத்தை, மாதிரி ChatGPT அரட்டைப் பதிவுகளில் பயிற்சி பெற்றிருக்கலாம் என்று தெரிவிக்கிறது. இது போன்ற நடைமுறையின் நெறிமுறை தாக்கங்கள் குறித்து கவலைகளை எழுப்புகிறது.

இந்த ஆண்டின் தொடக்கத்தில், OpenAI, ஃபைனான்சியல் டைம்ஸிடம் (Financial Times), தீப்ஸீக் வடிகட்டுதலை (distillation) பயன்படுத்துவதுடன் தொடர்புடைய ஆதாரங்களைக் கண்டுபிடித்ததாகத் தெரிவித்தது. வடிகட்டுதல் என்பது பெரிய, அதிக திறன் கொண்ட மாதிரிகளிலிருந்து தரவைப் பிரித்தெடுப்பதன் மூலம் AI மாதிரிகளைப் பயிற்றுவிக்கும் ஒரு நுட்பமாகும். மேலும், OpenAI-இல் ஒரு முக்கிய கூட்டாளியாகவும் முதலீட்டாளராகவும் இருக்கும் மைக்ரோசாஃப்ட் (Microsoft), 2024 இன் பிற்பகுதியில் OpenAI டெவலப்பர் கணக்குகள் மூலம் கணிசமான அளவு தரவு வெளியேற்றப்படுவதைக் கண்டறிந்தது. இந்த கணக்குகள் தீப்ஸீக்குடன் இணைந்தவை என்று OpenAI நம்புகிறது. இது அங்கீகரிக்கப்படாத தரவு பிரித்தெடுப்பதற்கான சந்தேகத்தை மேலும் உறுதிப்படுத்துகிறது.

வடிகட்டுதல் இயல்பாகவே நெறிமுறையற்றது அல்ல என்றாலும், OpenAI-இன் சேவை விதிமுறைகள், போட்டியிடும் AI அமைப்புகளை உருவாக்க நிறுவனத்தின் மாதிரி வெளியீடுகளைப் பயன்படுத்துவதைத் திட்டவட்டமாகத் தடைசெய்கின்றன. OpenAI-இன் அறிவுசார் சொத்துகளைப் பாதுகாக்க மற்றும் AI தொழில்துறையில் நியாயமான போட்டிச் சூழலைப் பராமரிக்க இந்த கட்டுப்பாடு நோக்கமாகக் கொண்டுள்ளது. தீப்ஸீக் உண்மையில் ஜெமினி வெளியீடுகளில் அதன் R1 மாதிரிக்கு பயிற்சி அளிக்க வடிகட்டுதலைப் பயன்படுத்தினால், அது OpenAI-இன் சேவை விதிமுறைகளை மீறுவதோடு கடுமையான நெறிமுறை கவலைகளையும் எழுப்புகிறது.

தரவு மாசுபாடு குறித்த சவால்கள்

பல AI மாதிரிகள் தங்களைத் தவறாக அடையாளம் காணவும், ஒத்த வார்த்தைகள் மற்றும் சொற்றொடர்களில் ஒன்று சேரவும் ஒரு போக்கு இருப்பதாக ஒப்புக்கொள்வது முக்கியம். இந்த நிகழ்வு, திறந்த இணையத்தில் AI உருவாக்கிய உள்ளடக்கத்தின் அதிகரித்து வரும் இருப்புக்குக் காரணம். திறந்த இணையமானது AI நிறுவனங்களுக்கான பயிற்சித் தரவுக்கான முக்கிய ஆதாரமாகச் செயல்படுகிறது. உள்ளடக்கப் பண்ணைகள் AI ஐப் பயன்படுத்திச் செய்திகளை உருவாக்குவதோடு, Reddit மற்றும் X போன்ற தளங்களில் AI உருவாக்கிய இடுகைகளுடன் நிரப்புகின்றன.

AI உருவாக்கிய உள்ளடக்கத்துடன் இணையத்தின் இந்த “மாசுபாடு”, AI நிறுவனங்களுக்கு ஒரு குறிப்பிடத்தக்க சவாலை ஏற்படுத்துகிறது. பயிற்சித் தரவுத் தொகுப்புகளிலிருந்து AI வெளியீடுகளை முழுமையாக வடிகட்டுவது மிகவும் கடினமாக்குகிறது. இதன் விளைவாக, AI மாதிரிகள் தற்செயலாக ஒன்றுக்கொன்று கற்றுக்கொள்ளக்கூடும். இது மொழி மற்றும் சிந்தனை செயல்முறைகளில் காணப்படுகின்ற ஒற்றுமைகளுக்கு வழிவகுக்கிறது.

நிபுணர் கருத்துகள் மற்றும் கண்ணோட்டங்கள்

தரவு மாசுபாடு குறித்த சவால்கள் இருந்தபோதிலும், இலாப நோக்கற்ற AI ஆராய்ச்சி நிறுவனமான AI2 இல் ஆராய்ச்சியாளரான நாதன் லாம்பர்ட் (Nathan Lambert) போன்ற AI நிபுணர்கள், கூகிளின் ஜெமினி தரவுகளில் தீப்ஸீக் பயிற்சி பெற்றது சாத்தியமற்றது அல்ல என்று நம்புகிறார்கள். GPUக்களின் பற்றாக்குறையை எதிர்கொள்ளும் தீப்ஸீக், போதுமான நிதி ஆதாரங்களைக் கொண்டுள்ளது. எனவே கிடைக்கும் சிறந்த API மாதிரியிலிருந்து செயற்கை தரவுகளை (synthetic data) உருவாக்கத் தேர்ந்தெடுத்திருக்கலாம் என்று லாம்பர்ட் கூறுகிறார். அவரது பார்வையில், இந்த அணுகுமுறை தீப்ஸீக்கிற்கு மிகவும் கணினி திறமையானதாக இருக்கும்.

மாற்று தரவு ஆதார உத்திகளை ஆராய AI நிறுவனங்களைத் தூண்டக்கூடிய நடைமுறை விஷயங்களை லாம்பர்ட்டின் கண்ணோட்டம் எடுத்துக்காட்டுகிறது. செயற்கை தரவைப் பயன்படுத்துவது ஒரு நியாயமான மற்றும் பயனுள்ள நுட்பமாக இருந்தாலும், தரவு நெறிமுறையாக உருவாக்கப்படுவதையும், எந்தவொரு சேவை விதிமுறைகளையும் அல்லது நெறிமுறை வழிகாட்டுதல்களையும் மீறவில்லை என்பதையும் உறுதி செய்வது அவசியம்.

பாதுகாப்பு நடவடிக்கைகள் மற்றும் தடுப்பு முயற்சிகள்

வடிகட்டுதல் மற்றும் தரவு மாசுபாடு தொடர்பான கவலைகளுக்குப் பதிலளிக்கும் விதமாக, AI நிறுவனங்கள் தங்கள் பாதுகாப்பு நடவடிக்கைகளை அதிகரித்து வருகின்றன. உதாரணமாக, சில மேம்பட்ட மாதிரிகளை அணுகுவதற்கு அமைப்புகள் ஒரு அடையாள சரிபார்ப்பு செயல்முறையை நிறைவு செய்ய வேண்டும் என்ற தேவையை OpenAI செயல்படுத்தியுள்ளது. இந்த செயல்முறை OpenAI இன் API ஆல் ஆதரிக்கப்படும் நாடுகளில் ஒன்றிலிருந்து அரசாங்கத்தால் வழங்கப்பட்ட அடையாள அட்டையை அவசியமாக்குகிறது. இந்த பட்டியலில் சீனா விலக்கப்பட்டுள்ளது.

கூகிள் தனது AI ஸ்டுடியோ டெவலப்பர் தளத்தின் மூலம் கிடைக்கும் மாதிரிகளால் உருவாக்கப்பட்ட தடயங்களைச் “சுருக்கி” வடிகட்டுதல் அபாயத்தைக் குறைப்பதற்கான நடவடிக்கைகளையும் எடுத்துள்ளது. இந்த சுருக்க செயல்முறை ஜெமினி தடயங்களில் செயல்திறன்மிக்க போட்டியாளர் மாதிரிகளுக்குப் பயிற்சி அளிப்பதை மிகவும் சவாலாக்குகிறது. அதேபோல், மே மாதத்தில் Anthropic அதன் சொந்த மாதிரியின் கூறுகளை சுருக்கத் தொடங்குவதாக அறிவித்தது. இது அவர்களின் “போட்டி நன்மைகளைப்” பாதுகாக்க வேண்டியதன் அவசியம் என்று குறிப்பிட்டது.

இந்த பாதுகாப்பு நடவடிக்கைகள் AI நிறுவனங்களால் அவர்களின் அறிவுசார் சொத்துகளைப் பாதுகாக்கவும் அங்கீகரிக்கப்படாத தரவு பிரித்தெடுப்பதைத் தடுக்கவும் ஒருங்கிணைக்கப்பட்ட முயற்சியைக் குறிக்கின்றன. கடுமையான அணுகல் கட்டுப்பாடுகளைச் செயல்படுத்துவதன் மூலமும், மாதிரி தடயங்களை தெளிவற்றதாக்குவதன் மூலமும், அவர்கள் நெறிமுறையற்ற நடைமுறைகளைத் தடுக்கவும், AI துறையில் நியாயமான விளையாட்டைப் பேணவும் இலக்கு வைத்துள்ளனர்.

கூகிளின் பதில்

கருத்துக்காகத் தொடர்பு கொண்டபோது, கூகிள் குற்றச்சாட்டுகளுக்கு இன்னும் பதிலளிக்கவில்லை. இந்த அமைதி ஊகங்களுக்கு இடமளிக்கிறது. சர்ச்சையை மேலும் தீவிரப்படுத்துகிறது. கூகிளிடமிருந்து அதிகாரப்பூர்வ அறிக்கையை AI சமூகம் எதிர்பார்த்துக் கொண்டிருப்பதால், தீப்ஸீக்கின் தரவு ஆதாரம் குறித்த கேள்விகள் தொடர்ந்து நீடிக்கின்றன.

AI தொழிலுக்கான தாக்கங்கள்

தீப்ஸீக் சர்ச்சை AI மேம்பாட்டின் நெறிமுறை எல்லைகள் மற்றும் பொறுப்பான தரவு ஆதாரத்தின் முக்கியத்துவம் குறித்த அடிப்படைக் கேள்விகளை எழுப்புகிறது. AI மாதிரிகள் மிகவும் அதிநவீனமாகவும் திறமையானவையாகவும் மாறும்போது, குறுக்குவழிகளை எடுத்து அங்கீகரிக்கப்படாத தரவைப் பயன்படுத்தும் ஆசை வலுவாக இருக்கலாம். இருப்பினும், இதுபோன்ற நடைமுறைகள் AI தொழில்துறையின் ஒருமைப்பாட்டை குறைமதிப்பிற்கு உட்படுத்தி பொது நம்பிக்கையை அரித்து, பாதகமான விளைவுகளை ஏற்படுத்தும்.

AI இன் நீண்டகால நிலைத்தன்மைக்கும், நெறிமுறை மேம்பாட்டிற்கும், AI நிறுவனங்கள் கடுமையான நெறிமுறை வழிகாட்டுதல்களைக் கடைப்பிடிக்க வேண்டும் மற்றும் பொறுப்பான தரவு ஆதார நடைமுறைகளுக்கு முன்னுரிமை அளிக்க வேண்டும். தரவு வழங்குநர்களிடமிருந்து வெளிப்படையான ஒப்புதல் பெறுதல், அறிவுசார் சொத்துரிமைகளுக்கு மதிப்பளித்தல் மற்றும் அங்கீகரிக்கப்படாத அல்லது பாரபட்சமான தரவைப் பயன்படுத்துவதைத் தவிர்ப்பது ஆகியவை இதில் அடங்கும்.

மேலும், AI தொழில்துறையில் அதிக வெளிப்படைத்தன்மை மற்றும் பொறுப்புணர்வு அவசியம். AI நிறுவனங்கள் தங்கள் தரவு ஆதார நடைமுறைகள் மற்றும் அவற்றின் மாதிரிகளுக்குப் பயிற்சி அளிக்கப் பயன்படுத்தப்படும் முறைகள் குறித்து மேலும் வெளிப்படையாக இருக்க வேண்டும். இந்த அதிகரித்த வெளிப்படைத்தன்மை AI அமைப்புகளில் நம்பிக்கையை வளர்க்கவும், மிகவும் நெறிமுறை மற்றும் பொறுப்பான AI சுற்றுச்சூழல் அமைப்பை ஊக்குவிக்கவும் உதவும்.

AI தொழில்நுட்பம் தொடர்ந்து முன்னேறி வருவதால் தீர்க்கப்பட வேண்டிய சவால்கள் மற்றும் நெறிமுறைக் கருத்தினைக் காட்டுவதாக தீப்ஸீக் சர்ச்சை உள்ளது. நெறிமுறை கோட்பாடுகளை நிலைநிறுத்துவதன் மூலமும், வெளிப்படைத்தன்மையை ஊக்குவிப்பதன் மூலமும், ஒத்துழைப்பை வளர்ப்பதன் மூலமும், சமூகம் AI இன் நன்மைகளைப் பயன்படுத்த வேண்டும். மேலும் AI நெறிமுறை மதிப்புகளின் அடிப்படையில் இருக்க வேண்டும்.

தொழில்நுட்ப அம்சங்களில் ஆழமான பார்வை

இந்த சிக்கலின் நுணுக்கங்களைப் புரிந்து கொள்ள, AI மாதிரிகள் எவ்வாறு பயிற்சி அளிக்கப்படுகின்றன என்பது குறித்த தொழில்நுட்ப அம்சங்களையும், வடிகட்டுதல் மற்றும் செயற்கை தரவு உருவாக்கம் போன்ற குறிப்பிட்ட நுட்பங்களையும் ஆராய்வது அவசியம்.

வடிகட்டுதல்: நுண்ணறிவை குளோனிங்கா?

AI சூழலில், வடிகட்டுதல் என்பது ஒரு சிறிய, அதிக திறன் கொண்ட “மாணவர்” மாதிரிக்கு பயிற்சி அளிக்கும் ஒரு மாதிரி சுருக்க நுட்பத்தைக் குறிக்கிறது. அந்த மாணவர் மாதிரி, பெரிய, மிகவும் சிக்கலான “ஆசிரியர்” மாதிரியின் நடத்தையைப் பின்பற்றுவதன் மூலம் கற்றுக்கொள்கிறார். மாணவர் மாதிரி ஆசிரியர் மாதிரியின் வெளியீடுகளைக் கவனிப்பதன் மூலம் அறிவைப் பிரித்தெடுத்து சிறிய கட்டமைப்பிற்கு மாற்றுகிறது. வடிகட்டுதல் என்பது வளங்களால் கட்டுப்படுத்தப்பட்ட சாதனங்களில் AI மாதிரிகளைப் பயன்படுத்த சாதகமாக இருக்கும்போது, ஆசிரியர் மாதிரியின் தரவு அல்லது கட்டமைப்பு தனியுரிமமானது நெறிமுறை கவலைகளை எழுப்புகிறது.

தீப்ஸீக் அனுமதி இல்லாமல் வடிகட்டுதல் மூலம் ஜெமினியின் வெளியீடுகளைப் பயன்படுத்தி அதன் R1 மாதிரிக்கு பயிற்சி அளித்தால், அது ஜெமினியின் நுண்ணறிவைக் குளோனிங் செய்வதற்குச் சமம் மற்றும் கூகிளின் அறிவுசார் சொத்துரிமைகளை மீறுவதாக இருக்கலாம். இங்கே முக்கியமானது ஜெமினியின் அங்கீகரிக்கப்படாத பயன்பாடு. ஜெமினியின் வெளியீடுகள் பதிப்புரிமை மற்றும் பிற சட்ட வழிமுறைகளால் பாதுகாக்கப்படுகின்றன.

செயற்கை தரவு தலைமுறை: ஒரு இரட்டை முனை கத்தி

செயற்கை தரவு தலைமுறை என்பது நிஜ உலக தரவை ஒத்த செயற்கைத் தரவு புள்ளிகளை உருவாக்குகிறது. பயிற்சித் தரவுத் தொகுப்புகளை அதிகரிக்க இந்த நுட்பம் பெரும்பாலும் பயன்படுத்தப்படுகிறது. இருப்பினும், தரத்தின் தரவும், நெறிமுறை தாக்கங்களும் அது எவ்வாறு உருவாக்கப்படுகிறது என்பதைப் பொறுத்தது.

தீப்ஸீக் செயற்கை தரவு உருவாக்க ஜெமினியின் API ஐப் பயன்படுத்தினால், இந்த தரவு உண்மையான ஜெமினி வெளியீட்டை எவ்வளவு நெருக்கமாக ஒத்திருக்கிறது, மேலும் அது கூகிளின் அறிவுசார் சொத்துரிமையா என்ற கேள்வி எழுகிறது. செயற்கை தரவு ஜெமினியிடமிருந்து வெறுமனே ஈர்க்கப்பட்டால், ஆனால் அதன் வெளியீடுகளை நேரடியாகப் பிரதிபலிக்கவில்லை என்றால், அதை நியாயமான பயன்பாடாகக் கருதலாம். செயற்கை தரவு ஜெமினியின் வெளியீட்டிலிருந்து வேறுபடுத்திப் பார்க்கமுடியாமல் இருந்தால், அது வடிகட்டுதல் போன்ற கவலைகளை எழுப்புகிறது.

மாதிரி பொருத்தமின்மையின் தாக்கங்கள்

மற்றொரு தொடர்புடைய கவலை மாதிரி பொருத்தமின்மை. ஒரு மாதிரி பயிற்சித் தரவை அதிகமாகக் கற்றுக் கொள்ளும்போது, புதிய, பார்க்காத தரவில் மோசமாகச் செயல்படும் அளவுக்குப் பொருத்தமின்மை ஏற்படுகிறது. தீப்ஸீக் அதன் R1 மாதிரிக்கு ஜெமினியின் வெளியீடுகளில் அதிகப்படியான பயிற்சி அளித்திருந்தால், அது பொருத்தமின்மையில் விளைந்திருக்கலாம். ஜெமினியின் பதில்களை மனப்பாடம் செய்வது புதிய சூழ்நிலைகளுக்குப் பொதுமைப்படுத்துவதற்குப் பதிலாக இருக்கும்.

இத்தகைய பொருத்தம் R1 மாதிரியைப் பயன்படுத்துவதைக் கட்டுப்படுத்துவது மட்டுமல்லாமல், ஜெமினியின் தரவைச் சார்ந்துள்ளதா என்பதைக் கண்டறிவதை எளிதாக்குகிறது. ஸ்பீச்மேப் குறிப்பிட்ட தடயங்கள் இந்த பொருத்தமின்மையின் ஆதாரமாக இருக்கலாம். R1 மாதிரி ஜெமினியின் வெளியீடுகளிலிருந்து கற்றுக் கொள்ளப்பட்ட வடிவங்களை வெளியிடுகிறது.

நெறிமுறை கவலைகள் மற்றும் தொழிலுக்கான சிறந்த நடைமுறைகள்

தொழில்நுட்ப அம்சங்களுக்கு அப்பால், இந்த சர்ச்சை AI மேம்பாட்டிற்கான தெளிவான நெறிமுறை வழிகாட்டுதல்கள் மற்றும் சிறந்த தொழில்துறை நடைமுறைகளின் அவசியத்தை எடுத்துக்காட்டுகிறது. சில முக்கிய கோட்பாடுகளில் பின்வருவன அடங்கும்:

  • வெளிப்படைத்தன்மை: AI நிறுவனங்கள் தங்கள் தரவின் ஆதாரங்கள் மற்றும் பயிற்சி வழிமுறைகள் குறித்து வெளிப்படையாக இருக்க வேண்டும். இது சுதந்திரமான தணிக்கை மற்றும் சரிபார்ப்புக்கு அனுமதிக்கிறது.
  • ஒப்புதல்: AI நிறுவனங்கள் பயிற்சிக்குத் தரவைப் பயன்படுத்துவதற்கு முன்பு தரவு வழங்குநர்களிடமிருந்து வெளிப்படையான ஒப்புதலைப் பெற வேண்டும். அறிவுசார் சொத்துரிமைகளுக்கு மதிப்பளிப்பதையும், அங்கீகரிக்கப்படாத தரவு சுரண்டலைத் தவிர்ப்பதையும் இது உள்ளடக்கியது.
  • நியாயம்: AI மாதிரிகள் நியாயமாகவும் பாரபட்சமில்லாமலும் இருக்க வேண்டும். இதற்கு தரவு பன்முகத்தன்மை மற்றும் வழிமுறை பாரபட்சத்தைத் தணிப்பதில் கவனமாக கவனம் செலுத்த வேண்டும்.
  • பொறுப்புடைமை: AI நிறுவனங்கள் தங்கள் AI மாதிரிகளின் செயல்களுக்குப் பொறுப்பேற்க வேண்டும். இதில் தெளிவான பொறுப்புணர்வு கட்டமைப்புகளை நிறுவுதல் மற்றும் AI அமைப்புகளால் ஏற்படும் தீங்கு விளைவிப்பதை நிவர்த்தி செய்தல் ஆகியவை அடங்கும்.
  • பாதுகாப்பு: AI நிறுவனங்கள் தங்கள் AI மாதிரிகள் மற்றும் தரவுகளின் பாதுகாப்பிற்கு முன்னுரிமை அளிக்க வேண்டும். இது அங்கீகரிக்கப்படாத அணுகலுக்கு எதிராகப் பாதுகாத்தல் மற்றும் தரவு மீறல்களைத் தடுப்பது ஆகியவை அடங்கும்.

ஒழுங்குமுறையின் பங்கு

நெறிமுறை வழிகாட்டுதல்கள் மற்றும் தொழில்துறை சிறந்த நடைமுறைகளுக்கு கூடுதலாக, AI மேம்பாடு முன்வைக்கும் சவால்களைச் சமாளிக்க ஒழுங்குமுறை அவசியம். சில சாத்தியமான ஒழுங்குமுறை நடவடிக்கைகள் பின்வருமாறு:

  • தரவு தனியுரிமை சட்டங்கள்: தனிநபர்களின் தரவைப் பாதுகாக்கும் சட்டங்கள் மற்றும் AI பயிற்சிக்கு தனிப்பட்ட தகவல்களைப் பயன்படுத்துவதைக் கட்டுப்படுத்துகின்றன.
  • அறிவுசார் சொத்து சட்டங்கள்: அங்கீகரிக்கப்படாத நகல் மற்றும் விநியோகத்திலிருந்து AI மாதிரிகள் மற்றும் தரவைப் பாதுகாக்கும் சட்டங்கள்.
  • போட்டி சட்டங்கள்: தரவு சேமிப்பு செய்தல் மற்றும் ஆதாரங்களுக்கான நியாயமற்ற அணுகல் போன்ற AI தொழில்துறையில் போட்டி எதிர்ப்பு நடத்தையை தடுக்கும் சட்டங்கள்.
  • பாதுகாப்பு விதிமுறைகள்: முக்கியமான பயன்பாடுகளில் பயன்படுத்தப்படும் AI அமைப்புகளின் பாதுகாப்பு மற்றும் நம்பகத்தன்மையை உறுதி செய்யும் விதிமுறைகள்.

நெறிமுறை வழிகாட்டுதல்கள், தொழில்துறை சிறந்த நடைமுறைகள் மற்றும் பொருத்தமான ஒழுங்குமுறைகளை இணைப்பதன் மூலம், ஒட்டுமொத்த சமூகத்திற்கும் பயனளிக்கும் மிகவும் பொறுப்பான மற்றும் நிலையான AI சுற்றுச்சூழல் அமைப்பை உருவாக்கலாம். தீப்ஸீக் சர்ச்சை ஒரு விழித்தெழுதலாக செயல்படுகிறது மேலும் நாம் இந்த சவால்களைச் சமாளித்து, நம்முடைய மதிப்புகள் மற்றும் கொள்கைகளுக்கு ஏற்ற வகையில் AI உருவாக்கப்படுவதை உறுதி செய்ய வேண்டும்.