ஹுவாய் டெக்னாலஜிஸ், அமெரிக்கத் தடைகள் காரணமாக குறிப்பிடத்தக்க தொழில்நுட்ப சவால்களை எதிர்கொண்டுள்ள நிறுவனம், செயற்கை நுண்ணறிவு (AI) மாதிரி பயிற்சியில் ஒரு திருப்புமுனையை எட்டியுள்ளது என்று கூறப்படுகிறது. ஹுவாவேயின் பெரிய மொழி மாதிரி (LLM), பாங்குவில் பணிபுரியும் ஆராய்ச்சியாளர்கள், டீப்ஸீக்கின் அசல் முறையை விஞ்சும் மேம்பட்ட அணுகுமுறையை உருவாக்கியதாகக் கூறுகின்றனர். இந்த புதுமையான முறை ஹுவாவேயின் சொந்த தனியுரிம ஹார்ட்வேரைப் பயன்படுத்துகிறது, இது தற்போதைய புவிசார் அரசியல் சூழலில் முக்கியமான நோக்கமான அமெரிக்க தொழில்நுட்பங்களைச் சார்ந்திருப்பதைக் குறைக்கிறது.
தொகுதி நிபுணர்களின் கலவையின் தோற்றம் (MoGE)
ஹுவாவேயின் முன்னேற்றத்தின் மூலக்கல்லாக தொகுதி நிபுணர்களின் கலவை (MoGE) உள்ளது. ஹுவாவேயின் பாங்கு குழு வெளியிட்ட ஒரு கட்டுரையில் விவரிக்கப்பட்டுள்ள இந்த புதிய நுட்பம், நிபுணர்களின் கலவை (MoE) நுட்பத்தின் மேம்படுத்தப்பட்ட பதிப்பாக வழங்கப்படுகிறது. டீப்ஸீக்கின் வெற்றியால் நிரூபிக்கப்பட்டபடி, MoE செலவு குறைந்த AI மாடல்களை உருவாக்குவதில் உதவியாக நிரூபிக்கப்பட்டுள்ளது.
MoE பெரிய மாடல் அளவுருக்களுக்கு நன்மைகளை வழங்குகிறது, இது மேம்பட்ட கற்றல் திறனுக்கு வழிவகுக்கிறது. இருப்பினும், ஹுவாய் ஆராய்ச்சியாளர்கள் "நிபுணர்களின்" சீரற்ற செயலிழப்பிலிருந்து எழும் திறமையின்மைகளை அடையாளம் கண்டுள்ளனர், இது AI பயிற்சியில் முக்கியமான கூறுகளாகும், இது பல சாதனங்களில் பணிகளை ஒரே நேரத்தில் இயக்கும்போது செயல்திறனைத் தடுக்கலாம். ஹுவாவேயின் MoGE இந்த சவால்களை மூலோபாய ரீதியாக நிவர்த்தி செய்கிறது.
பாரம்பரிய MoE மாடல்களில் உள்ள திறமையின்மைகளை நிவர்த்தி செய்தல்
MoGE அமைப்பு பணிச்சுமை விநியோகத்தை மேம்படுத்தும் வகையில் சிக்கலான முறையில் வடிவமைக்கப்பட்டுள்ளது. மைய யோசனை நிபுணர்களைத் தேர்ந்தெடுக்கும்போது ஒன்றாக "குழுவாக" வைப்பதாகும், இது மிகவும் சீரான பணிச்சுமை விநியோகத்திற்கு வழிவகுக்கிறது. கணக்கீட்டு சுமையை மிகவும் சமமாக விநியோகிப்பதன் மூலம், ஆராய்ச்சியாளர்கள் இணையான கம்ப்யூட்டிங் சூழல்களின் செயல்திறனில் ஒரு குறிப்பிடத்தக்க மேம்பாட்டைப் பதிவு செய்துள்ளனர், இது நவீன AI பயிற்சியின் முக்கிய அம்சமாகும்.
AI பயிற்சியில் உள்ள "நிபுணர்கள்" என்ற கருத்து, ஒரு பெரிய, மிகவும் விரிவான மாதிரியில் உள்ள විශේෂිත උප-මාදිளிகளை அல்லது கூறுகளைக் குறிக்கிறது. ஒவ்வொரு நிபுணரும் மிகவும் குறிப்பிட்ட பணிகள் அல்லது தரவு வகைகளைக் கையாளும் வகையில் உன்னிப்பாக வடிவமைக்கப்பட்டுள்ளனர். இந்த அணுகுமுறை மாறுபட்ட විශේෂඥ දැනුමப் பயன்பாட்டைப் பயன்படுத்துகிறது, இது ஒட்டுமொத்த AI அமைப்பு அதன் ஒட்டுமொத்த செயல்திறனை கணிசமாக மேம்படுத்த அனுமதிக்கிறது.
சீனாவின் AI முன்னேற்றத்திற்கான தாக்கங்கள்
இந்த முன்னேற்றம் குறிப்பாக சரியான நேரத்தில் வந்துள்ளது. Nvidia இலிருந்து வரும் மேம்பட்ட AI சிப்ஸைப் போன்றவற்றை இறக்குமதி செய்வதற்கு அமெரிக்கா கட்டுப்பாடுகள் விதித்த போதிலும், சீன AI நிறுவனங்கள் மாடல் பயிற்சி மற்றும் ஊக செயல்திறனை அதிகரிக்கும் முறைகளை தீவிரமாக பின்பற்றி வருகின்றன. இந்த முறைகளில் அல்காரிதமிக் மேம்பாடுகள் மட்டுமல்ல, வன்பொருள் மற்றும் மென்பொருளின் ஒருங்கிணைந்த ஒருங்கிணைப்பும் அடங்கும்.
ஹுவாவேயின் ஆராய்ச்சியாளர்கள் MoGE கட்டமைப்பை தங்கள் Ascend neural processing unit (NPU) இல் கடுமையாக சோதித்தனர், இது குறிப்பாக AI பணிகளை துரிதப்படுத்த வடிவமைக்கப்பட்டுள்ளது. MoGE சிறந்த நிபுணர் சுமை சமநிலை மற்றும் மாடல் பயிற்சி மற்றும் ஊக கட்டங்களுக்கு மிகவும் திறமையான செயலாக்கத்தை அடைந்துள்ளது என்று முடிவுகள் காட்டுகின்றன. வன்பொருள் மற்றும் மென்பொருள் அடுக்குகளை ஒரே நேரத்தில் மேம்படுத்துவதன் நன்மைகளை இது ஒரு முக்கியமான சரிபார்ப்பாகும்.
முன்னணி AI மாடல்களுக்கு எதிராக பாங்குவை பெஞ்ச்மார்க்கிங் செய்தல்
MoGE கட்டமைப்பு மற்றும் Ascend NPU களால் பலப்படுத்தப்பட்ட ஹுவாவேயின் பாங்கு மாதிரி, முன்னணி AI மாடல்களுக்கு எதிராக பெஞ்ச்மார்க் செய்யப்பட்டது. இதில் DeepSeek-V3, Alibaba Group Holding’s Qwen2.5-72B மற்றும் Meta Platforms’ Llama-405B ஆகியவை அடங்கும். பாங்கு பொதுவான ஆங்கில பெஞ்ச்மார்க்குகள் முழுவதும் அதிநவீன செயல்திறனை அடைந்துள்ளது என்றும், அனைத்து சீன பெஞ்ச்மார்க்குகளிலும் சிறந்து விளங்குகிறது என்றும் பெஞ்ச்மார்க்கின் முடிவுகள் காட்டுகின்றன. பாங்கு நீண்ட சூழல் பயிற்சியைச் செயலாக்குவதில் அதிக செயல்திறனையும் வெளிப்படுத்தியது, இது அதிநவீன இயற்கை மொழி செயலாக்க பணிகளுக்கு முக்கியமான ஒரு பகுதியாகும்.
மேலும், பாங்கு மாதிரி பொது மொழி புரிதல் பணிகளில் விதிவிலக்கான திறன்களை நிரூபித்தது, குறிப்பாக பகுத்தறிவு பணிகளில் வலுவானது. சிக்கலான மொழியிலிருந்து நுணுக்கங்களைப் புரிந்துகொண்டு அர்த்தத்தை பிரித்தெடுக்கும் இந்த திறன், AI இல் ஹுவாய் அடைந்துள்ள முன்னேற்றங்களை நிரூபிக்கிறது.
ஹுவாவேயின் மூலோபாய முக்கியத்துவம்
AI மாதிரி கட்டமைப்பில் ஹுவாவேயின் முன்னேற்றம் மூலோபாய முக்கியத்துவத்தை காட்டுகிறது. நடந்து வரும் தடைகள் காரணமாக, ஷென்சென் அடிப்படையிலான நிறுவனம் அமெரிக்க தொழில்நுட்பங்களைச் சார்ந்திருப்பதைக் குறைக்க மூலோபாய ரீதியாக முயன்று வருகிறது. ஹுவாவேயால் உருவாக்கப்பட்ட ஏசெண்ட் சிப்ஸ் Nvidia இலிருந்து процессоர்களுக்கு சாத்தியமான உள்நாட்டு மாற்றுகளாகக் கருதப்படுகின்றன, மேலும் இந்த சுதந்திரத்தின் முக்கிய அங்கமாகும்.
NPUகளுக்கு உகந்ததாக 135 பில்லியன் அளவுருக்களைக் கொண்ட ஒரு பெரிய மொழி மாதிரியான Pangu Ultra, Huawei இன் கட்டிடக்கலை மற்றும் முறையான நெறிப்படுத்துதலின் செயல்திறனை வலியுறுத்துகிறது, அதே நேரத்தில் அதன் NPUகளின் திறன்களைக் காட்டுகிறது. வன்பொருள்-மென்பொருள் ஒருங்கிணைப்பின் செயல்திறனைக் காட்டுவது Huawei AI திறன்களைக் காண்பிப்பதில் ஒரு முக்கிய பகுதியாகும்.
விரிவான பயிற்சி செயல்முறை
ஹுவாவேவின் கூற்றுப்படி, பயிற்சி செயல்முறை மூன்று முக்கிய நிலைகளாக பிரிக்கப்பட்டுள்ளது: முன் பயிற்சி, நீண்ட சூழல் நீட்டிப்பு மற்றும் பிந்தைய பயிற்சி. முன் பயிற்சி ஆரம்பத்தில் 13.2 டிரில்லியன் டோக்கன்களின் பாரிய தரவுத் தொகுப்பில் மாதிரிக்கு பயிற்சி அளிப்பதை உள்ளடக்கியது. நீண்ட சூழல் நீட்டிப்பு மாதிரி நீண்ட மற்றும் சிக்கலான உரைகளைக் கையாளும் திறனை விரிவுபடுத்துகிறது மற்றும் ஆரம்ப தரவு அங்கீகாரத்தை உருவாக்குகிறது. இந்த கட்டம் 8,192 Ascend சிப்ஸில் பெரிய அளவிலான விநியோகிக்கப்பட்ட செயலாக்கத்தைப் பயன்படுத்துகிறது.
மாதிரி மற்றும் அமைப்பு விரைவில் அதன் வணிக வாடிக்கையாளர்களுக்கு அணுகக்கூடியதாக இருக்கும் என்று Huawei வெளிப்படுத்தியது, அதன் கூட்டாளர்களுடன் ஒருங்கிணைப்பு மற்றும் மேம்பாட்டிற்கான புதிய வாய்ப்புகளைத் திறக்கிறது.
நிபுணர்களின் கலவை (MoE) மற்றும் அதன் வரம்புகள் பற்றிய ஆழமான ஆய்வு
ஹுவாவேயின் MoGE இன் முக்கியத்துவத்தை முழுமையாகப் பாராட்ட, அது கட்டியெழுப்பப்பட்ட அடித்தளங்களைப் புரிந்துகொள்வது மிகவும் முக்கியமானது: நிபுணர்களின் கலவை (MoE) கட்டமைப்பு. MoE பெரிய AI மாடல்கள் எவ்வாறு வடிவமைக்கப்பட்டு பயிற்றுவிக்கப்படுகின்றன என்பதில் ஒரு மாதிரி மாற்றத்தை பிரதிபலிக்கிறது, ఇది గణనச் செலவில் விகிதாசார அதிகரிப்பு இல்லாமல் மாடல் அளவை மற்றும் சிக்கலை அளவிடுவதற்கு ஒரு வழியை வழங்குகிறது.
பாரம்பரிய நரம்பியல் நெட்வொர்க்கில், ஒவ்வொரு உள்ளீடும் ஒவ்வொரு அடுக்கிலும் உள்ள ஒவ்வொரு நியூரான் மூலம் செயலாக்கப்படுகிறது. இந்த அணுகுமுறை அதிக துல்லியத்தை அளித்தாலும், இது மிகப் பெரிய மாடல்களுக்கு கணக்கீட்டு ரீதியாகத் தடை செய்கிறது. மாறாக, MoE "நிபுணர்கள்" என்ற கருத்தை அறிமுகப்படுத்துகிறது - உள்ளீட்டு தரவின் குறிப்பிட்ட துணைக்குழுக்களில் கவனம் செலுத்தும் சிறிய, சிறப்பு நரம்பியல் நெட்வொர்க்குகள்.
ஒரு "gate" நெட்வொர்க் ஒவ்வொரு உள்ளீட்டையும் மிகவும் பொருத்தமான நிபுணர்(கள்) க்கு மாறும் வகையில் திசைதிருப்புகிறது. இந்த தேர்ந்தெடுக்கப்பட்ட செயல்படுத்தல் ஒரு sparse கணக்கீட்டை அனுமதிக்கிறது, அதாவது ஒரு குறிப்பிட்ட உள்ளீட்டிற்கு மாதிரியின் அளவுருக்களின் ஒரு பகுதி மட்டுமே ஈடுபடுத்தப்படுகிறது. இந்த sparsity ஊகத்தின் கணக்கீட்டு செலவை (முன்னறிவிப்பிற்காக மாதிரியைப் பயன்படுத்துதல்) மற்றும் பயிற்சி ஆகிய இரண்டையும் வியத்தகு முறையில் குறைக்கிறது. மேலும், வெவ்வேறு நிபுணர்கள் உள்ளீட்டு தரவின் வெவ்வேறு பகுதிகளை செயலாக்க முடியும் என்பதால், இது மாதிரியில் அதிக நிபுணத்துவத்தை அனுமதிக்கிறது.
MoE இன் நன்மைகள் இருந்தபோதிலும், அதன் முழு திறனையும் திறக்க பல வரம்புகளை நிவர்த்தி செய்ய வேண்டும். நிபுணர்களின் சீரற்ற செயல்படுத்தல் ஒரு முக்கிய கவலையாக உள்ளது. பல MoE செயலாக்கங்களில், சில நிபுணர்கள் அதிகமாகப் பயன்படுத்தப்படுகிறார்கள், மற்றவர்கள் ஒப்பீட்டளவில் செயலற்றவர்களாக இருக்கிறார்கள். இந்த சமநிலையின்மை தரவின் உள்ளார்ந்த சிறப்பியல்புகள் மற்றும் gate நெட்வொர்க்கின் வடிவமைப்பிலிருந்து உருவாகிறது.
இந்த சமநிலையின்மை இணையான கம்ப்யூட்டிங் சூழல்களில் திறமையின்மைக்கு வழிவகுக்கும். பணிச்சுமை நிபுணர்களிடையே சமமாக விநியோகிக்கப்படாததால், சில செயலாக்க அலகுகள் பயன்படுத்தப்படாமல் விடப்படுகின்றன, மற்றவை அதிகமாகிவிடும். இந்த வேறுபாடு MoE இன் அளவிடுதலைத் தடுக்கிறது மற்றும் அதன் ஒட்டுமொத்த செயல்திறனைக் குறைக்கிறது. மேலும், இந்த சமநிலையின்மை பெரும்பாலும் பயிற்சி தரவில் உள்ள சார்புகளிலிருந்து உருவாகிறது, இது குறைவான செயலில் உள்ள நிபுணர்களின் குறைவான பிரதிநிதித்துவம் மற்றும் குறைவான பயிற்சிக்கு வழிவகுக்கிறது. இது நீண்ட காலத்திற்கு உகந்ததல்லாத மாதிரியில் விளைகிறது.
MoE ஐ கையாளும் போது மற்றொரு பொதுவான சிக்கல்களில் gate நெட்வொர்க்கை வடிவமைக்கும் போது கூடுதல் சிக்கல் அடங்கும். நிபுணர்கள் சரியாக தேர்ந்தெடுக்கப்படுவதை உறுதி செய்ய gate நெட்வொர்க்கிற்கு அதிநவீன நுட்பங்கள் தேவைப்படுகின்றன, இல்லையெனில், MoE எதிர்பார்ப்புகளுக்கு ஏற்ப செயல்படாமல் தேவையற்ற மேல்நிலைக்கு வழிவகுக்கும்.
குழு நிபுணர்கள் (MoGE): MoE இன் சவால்களை நிவர்த்தி செய்தல்
ஹுவாவேயின் தொகுதி நிபுணர்களின் கலவை (MoGE) கட்டமைப்பு சுமை சமநிலை மற்றும் திறமையான இணையான செயலாக்கத்தில் கவனம் செலுத்துவதன் மூலம் பாரம்பரிய MoE க்கு ஒரு சுத்திகரிக்கப்பட்ட மாற்றீட்டை வழங்குகிறது. இந்த முறை நிபுணர்களை மூலோபாய ரீதியாக குழுவாக வைத்திருப்பதை உள்ளடக்கியது, இது உள்ளீட்டு தரவின் ரூட்டிங் செயல்முறையை மாற்றுகிறது, இது இன்னும் சுமையான பணிச்சுமை விநியோகத்திற்கு வழிவகுக்கிறது.
தேர்வு செய்யும் போது நிபுணர்களை குழுவாக வைப்பதன் மூலம், MoGE ஒவ்வொரு நிபுணர் குழுவும் மிகவும் சீரான பணிச்சுமையைப் பெறுவதை உறுதி செய்கிறது. ஒவ்வொரு உள்ளீட்டையும் சுயாதீனமாக ரூட் செய்வதற்குப் பதிலாக, gate நெட்வொர்க் இப்போது உள்ளீடுகளின் குழுக்களை நிபுணர்களின் குழுக்களுக்குத் திசைதிருப்புகிறது. இந்த அணுகுமுறை கணக்கீட்டு சுமையின் மிகவும் சமமான விநியோகத்தை ஊக்குவிக்கிறது.
குழுவாக்கும் பொறிமுறையும் தரவு சார்புகளின் விளைவுகளைத் தணிக்க உதவுகிறது. ஒரு குழுவில் உள்ள அனைத்து நிபுணர்களும் வேறுபட்ட உள்ளீடுகளைக் கொண்டு பயிற்சி பெறுவதை உறுதி செய்வதன் மூலம், MoGE குறைவான பிரதிநிதித்துவம் மற்றும் குறைவான பயிற்சி அபாயத்தைக் குறைக்கிறது. மேலும், நிபுணர்களை குழுவாக வைப்பது சிறந்த வள பயன்பாட்டை செயல்படுத்துகிறது. ஒவ்வொரு குழுவும் மிகவும் நிலையான பணிச்சுமையை கையாள்வதால், கணக்கீட்டு வளங்களை திறமையாக ஒதுக்கீடு செய்வது எளிதாகிறது, இது சிறந்த ஒட்டுமொத்த செயல்திறனுக்கு வழிவகுக்கிறது.
இதன் விளைவாக, மாடல் பயிற்சி மற்றும் ஊகம் இரண்டிற்கும் சிறந்த நிபுணர் சுமை சமநிலை மற்றும் அதிக திறமையான செயலாக்கம் கிடைக்கிறது. இது வேகமான பயிற்சி நேரம், குறைந்த கணக்கீட்டு செலவுகள் மற்றும் மேம்பட்ட ஒட்டுமொத்த செயல்திறனுக்கு வழிவகுக்கிறது.
Ascend NPU: AI க்கான வன்பொருள் முடுக்கம்
Ascend NPU (நரம்பியல் செயலாக்க அலகு) ஹுவாவேயின் AI மூலோபாயத்தில் ஒரு முக்கிய பங்கு வகிக்கிறது. இந்த процессоர்கள் குறிப்பாக மாடல் பயிற்சி மற்றும் ஊகம் உட்பட AI பணிகளை துரிதப்படுத்த வடிவமைக்கப்பட்டுள்ளன. அவை அதிக நினைவக அலைவரிசை, அணி பெருக்கலுக்கான சிறப்பு செயலாக்க அலகுகள் மற்றும் குறைந்த தாமத தொடர்பு இடைமுகங்கள் போன்ற ஆழமான கற்றல் பணிச்சுமைகளுக்கு உகந்த பல்வேறு அம்சங்களை வழங்குகின்றன. மேலும், Huawei இன் Ascend NPUகள் பல்வேறு தரவு வகைகள் மற்றும் துல்லிய நிலைகளை ஆதரிக்கின்றன, இது செயல்திறன் மற்றும் துல்லியத்தின் மீது சிறந்த அளவு கட்டுப்பாட்டை அனுமதிக்கிறது.
MoGE மற்றும் Ascend NPU இன் ஒருங்கினைப்பு AI புதுமைக்கான ஒரு சக்திவாய்ந்த தளத்தை உருவாக்குகிறது. சுமை சமநிலை மற்றும் இணையான செயலாக்கத்தை மேம்படுத்துவதன் மூலம் MoGE மென்பொருள் பக்கத்தை மேம்படுத்துகிறது, அதே நேரத்தில் Ascend NPU இந்த நன்மைகளை உணர தேவையான வன்பொருள் முடுக்கத்தை வழங்குகிறது. இந்த ஒருங்கிணைந்த அணுகுமுறை ஹுவாய் AI செயல்திறன் மற்றும் செயல்திறனின் எல்லைகளைத் தள்ள அனுமதிக்கிறது.
Ascend NPU அதிக கம்ப்யூட்டிங் அடர்த்தி மற்றும் ஆற்றல் செயல்திறன் ஆகியவற்றால் வகைப்படுத்தப்படுகிறது. இந்த அம்சங்கள் சக்திவாய்ந்த கிளவுட் சேவையகங்கள் முதல் மட்டுப்படுத்தப்பட்ட மின்சார வரவுசெலவுத் திட்டத்தைக் கொண்ட প্রান্ত சாதனங்கள் வரை பல்வேறு அமைப்புகளில் AI மாடல்களை வரிசைப்படுத்துவதற்கு முக்கியமானவை.
அளவுகோல்கள் மற்றும் செயல்திறன் அளவீடுகள்
MoGE கட்டமைப்பு மற்றும் Ascend NPU இன் செயல்திறனை Huawei இன் அளவுகோல் முடிவுகள் நிரூபிக்கின்றன. DeepSeek-V3, Qwen2.5-72B மற்றும் Llama-405B போன்ற முன்னணி AI மாடல்களுக்கு எதிராக பாங்குவை ஒப்பிடுவதன் மூலம், அதன் தொழில்நுட்பம் பல்வேறு பணிகளில் அதிநவீன செயல்திறனை அடைகிறது என்று Huawei காட்டியது.
பொதுவான ஆங்கிலம் மற்றும் சீன அளவுகோல்களில் பாங்குவின் வெற்றி அதன் பல்துறை மற்றும் தகவமைப்புத் திறனை எடுத்துக்காட்டுகிறது. நீண்ட சூழல் பயிற்சியில் மாதிரியின் திறன் மிகவும் குறிப்பிடத்தக்கதாகும், ஏனெனில் இது நிஜ உலகத் தரவைக் கையாளும் திறன்களை பிரதிபலிக்கிறது. மேலும், பகுத்தறிவு பணிகளில் பாங்குவின் வலுவான செயல்திறன் சிக்கலான உறவுகளைப் புரிந்துகொண்டு செயலாக்கும் திறனை அடிக்கோடிட்டுக் காட்டுகிறது.
இந்த அளவுகோல்கள் வெறும் கல்வி பயிற்சிகள் அல்ல, அவை ஹுவாவேயால் செய்யப்பட்ட технологическими успехамиக்கான உறுதியான ஆதாரங்களை வழங்குகின்றன. அவர்கள் AI கண்டுபிடிப்பின் முன்னணியில் இருப்பதாக நிறுவனத்தின் கூற்றை బలப்படுத்துகிறார்கள் மற்றும் உலக சந்தையில் அதன் நிலையை பலப்படுத்துகிறார்கள்.
ஹுவாவேயின் எதிர்காலத்திற்கான தாக்கங்கள்
AI மாதிரி பயிற்சியில் ஹுவாவேயின் முன்னேற்றங்கள் செயற்கை நுண்ணறிவில் தொழில்நுட்ப இறையாண்மையை நிறுவுவதற்கான நிறுவனத்தின் மூலோபாய பார்வைக்கு முக்கியமான தாக்கங்களை ஏற்படுத்துகின்றன. நிறுவனம் நடந்து வரும் வர்த்தக மோதலின் மத்தியில் அமெரிக்க தொழில்நுட்பங்களைச் சார்ந்திருப்பதைக் குறைக்கும் நிலையில், Ascend சிப்ஸின் வளர்ச்சி Nvidia மற்றும் AMD இலிருந்து प्रोसेसरகளுக்கு மாற்றாக செயல்படுகிறது. NPUகளுக்கான 135 பில்லியன் அளவுருக்களைைக் கொண்ட ஒரு LLM ஆன Pangu Ultra, அதன் அதிநவீன சிப்ஸின் திறன்களைக் காண்பிப்பதன் மூலம் ஹுவாய் கட்டிடக்கலை మరియు క్రమబద్ధీకరణ యొక్క செயல்திறனை எடுத்துக்காட்டுகிறது.
இந்த முயற்சிகள் Huawei இன் ஒட்டுமொத்த போட்டித்திறனுக்கு நீண்ட காலத்திற்கு பங்களிக்கும் என்று எதிர்பார்க்கப்படுகிறது, ஏனெனில் அது குறிப்பாக சீனாவில், AI க்கான ஒரு பெரிய சந்தையை வழங்குவதில் கவனம் செலுத்துகிறது. ஆராய்ச்சி மற்றும் மேம்பாட்டில் தொடர்ந்து முதலீடுகளை மையமாகக் கொண்டு, ஹுவாய் தற்போதைய சந்தை கட்டுப்பாடுகளை மீறி, AI இடத்தில் தன்னை ஒரு தலைவராக நிலைநிறுத்திக் கொள்ள நம்புகிறது.
எதிர்கால ஆராய்ச்சி
ஹுவாவேயின் தொடர்ச்சியான மேம்பாடுகள் கணினி மற்றும் அல்காரிதம் மட்டங்களில் AI மாடல் கட்டமைப்பில் மேம்பாடுகள், அத்துடன் Ascend சிப் போன்ற வன்பொருள் மேம்பாடுகள் செயற்கை நுண்ணறிவில் தொழில்நுட்ப வளைவுக்கு இட்டுச் செல்வதில் அதன் முக்கியத்துவத்தைக் குறிக்கின்றன. பாங்கு போன்ற அளவுகோல்கள் இது அதிநவீன மாதிரி என்பதை நிரூபிக்கும் அதே வேளையில், இன்னும் பல முன்னேற்றங்கள் உள்ளன. MoGE கட்டமைப்பை மேலும் மேம்படுத்துவது பெரிய மற்றும் அதிக சிக்கலான கணக்கீடுகளுக்கு தள்ளுவதற்கு அதை அனுமதிக்கலாம். மேம்பட்ட ஆழமான கற்றல் செயல்முறைகள் மற்றும் செலவினங்களைக் குறைக்க Ascend NPU இன் கட்டமைப்பை மேலும் சிறப்பாகச் செய்வதில் அதிக வேலை செய்யலாம். எதிர்கால விசாரணையில் சிறந்த AI மாடல்களை உருவாக்குவதற்கும் ஏற்கனவே உள்ளவற்றை மேம்படுத்துவதற்கும் தொடர்ச்சியான முயற்சிகள் காணப்படும்.