செயற்கை நுண்ணறிவு (AI) உலகில் DeepSeek நிறுவனத்தின் சமீபத்திய வெளியீடான R1-0528 என்ற பகுத்தறிவு மாதிரி (reasoning model) பெரும் பரபரப்பை ஏற்படுத்தியுள்ளது. சீன AI ஆய்வகமான DeepSeek-ல் இருந்து வெளிவந்துள்ள இந்த மாதிரி, கணிதப் பிரச்சனைகளைத் தீர்ப்பது மற்றும் சிக்கலான கோடிங் பணிகளைச் செய்வது போன்ற கடினமான துறைகளில் குறிப்பிடத்தக்க செயல்திறனைக் காட்டி பலரின் கவனத்தை ஈர்த்துள்ளது. ஆனால் இந்த தொழில்நுட்ப வெற்றியின் மேற்பரப்பிற்கு அடியில் ஒரு சர்ச்சைக்குரிய விஷயம் மறைந்துள்ளது: இந்த மாதிரியின் முக்கியமான பயிற்சி கட்டத்தில் கூகிளின் ஜெமினி AI குடும்பத்திலிருந்து திருடப்பட்ட தரவுகள் பயன்படுத்தப்பட்டிருக்கலாம் என்ற சந்தேகம் நிலவுகிறது.
ஜெமினியின் எதிரொலிகள்: ஒரு டெவலப்பரின் ஆழமான பார்வை
மெல்போர்னைச் சேர்ந்த சாம் பேச் என்ற டெவலப்பர் தான் இந்த விஷயத்தில் முதல் எச்சரிக்கை மணியை அடித்தார். பேச் தனது சமூக வலைத்தளப் பக்கத்தில் DeepSeek’ன் R1-0528 மாதிரிக்கும் கூகிளின் ஜெமினி 2.5 ப்ரோவுக்கும் இடையே வியக்கத்தக்க ஒற்றுமை இருப்பதாகக் கூறி சில ஆதாரங்களை வெளியிட்டார். இது ஒரு சாதாரணமான பார்வை மட்டுமல்ல; பேச்சின் பகுப்பாய்வு இந்த AI மாடல்களை இயக்கும் நரம்பியல் பாதைகள் மற்றும் வழிமுறைகள் வரை சென்று, ஒரு பொதுவான தோற்றம் அல்லது குறைந்தபட்சம் அறிவுசார் சொத்தின் கணிசமான கடன் இருப்பதைச் சுட்டிக்காட்டியது.
தீயில் மேலும் எண்ணெய் ஊற்றுவது போல, டெக் சமூகத்தில் SpeechMap ஐ உருவாக்கியதன் மூலம் பிரபலமான மற்றொரு டெவலப்பர், பேச்சின் கருத்துக்கு தனது ஆதரவைத் தெரிவித்தார். இந்த இரண்டாவது குரல், R1-0528 இன் பகுத்தறிவு வழிமுறைகள் ஜெமினி AI ஐப் போலவே இருப்பதாகக் கூறியது. ஒற்றுமைகள் மேலோட்டமானதாக மட்டுமல்லாமல், மாதிரிகளின் மையக் கட்டமைப்பிற்கும் பொருந்தின; இது வெறுமனே ஒரு தற்செயலான நிகழ்வு என்பதை விட ஆழமான தொடர்பைக் குறிக்கிறது.
இருப்பினும், இந்த குற்றச்சாட்டுகளுக்கு உள்ளான DeepSeek நிறுவனம் மௌனம் காத்து வருகிறது. R1-0528 மாதிரியைப் பயிற்றுவிக்கப் பயன்படுத்தப்பட்ட குறிப்பிட்ட தரவுத்தொகுப்புகள் மற்றும் வழிமுறைகளை வெளியிட நிறுவனம் வெளிப்படையாகத் தவிர்த்து வருவதால் சந்தேகம் வலுக்கிறது. வெளிப்படைத்தன்மை இல்லாததால் மாதிரியின் தோற்றம் மற்றும் தார்மீகக் கருத்தாய்வுகள் குறித்த விவாதங்கள் தீவிரமடைந்துள்ளன.
மாதிரி வடிகட்டலின் மர்மமான நீர்கள்: ஒரு தார்மீக கயிற்றின் மீது நடப்பது
AI மேம்பாட்டின் அதிதீவிர போட்டி நிலப்பரப்பில், நிறுவனங்கள் ஒரு படி மேலே செல்ல புதுமையான உத்திகளைத் தொடர்ந்து தேடுகின்றன. மாதிரி வடிகட்டல் (Model distillation) என்பது ஒரு சர்ச்சைக்குரிய அதே நேரத்தில் மறுக்க முடியாத அளவிற்கு நடைமுறையில் உள்ள உத்தி. மாதிரி வடிகட்டல் என்பது சிறிய, திறமையான AI மாடல்களை, அவற்றின் பெரிய, சிக்கலான மாடல்களால் உருவாக்கப்பட்ட வெளியீடுகளைப் பயன்படுத்திப் பயிற்றுவிக்கும் கலை. ஒரு மாஸ்டர் செஃப் ஒரு புதிய பயிற்சியாளர்களுக்கு கற்றுக்கொடுப்பதைப் போல இதை கற்பனை செய்து பாருங்கள்; மாஸ்டர் தனது அறிவை மாணவருக்கு கடத்துகிறார், இதன் மூலம் அவர்கள் குறைந்த வளங்களைக் கொண்டு குறிப்பிடத்தக்க முடிவுகளை அடைய அனுமதிக்கப்படுகிறார்கள்.
வடிகட்டல் கொள்கையளவில் ஒரு சரியான மற்றும் மதிப்புமிக்க நுட்பமாக இருந்தாலும், "மாஸ்டர் செஃப்" உங்களுடைய சொந்த படைப்பு இல்லையென்றால் கேள்விகள் எழுகின்றன. கூகிள் மாடல்களை DeepSeek பயன்படுத்தியதாகக் கூறப்படுவது AI மேம்பாட்டுத் துறையில் அறிவுசார் சொத்துரிமைகள் தொடர்பான சிக்கலான சவால்களை வெளிச்சம் போட்டுக் காட்டுகிறது. ஒரு போட்டியாளரின் மாதிரியின் வெளியீடுகளைப் பயன்படுத்தி உங்கள் சொந்த மாடலைப் பயிற்றுவிப்பது தார்மீகமா? குறிப்பாக, அசல் மாதிரியின் தரவு மற்றும் கட்டமைப்பு தனியுரிமமாகப் பாதுகாக்கப்படும்போது இது சரியா?
AI உலகில் பல விஷயங்களைப் போலவே, இதற்கான பதிலும் தெளிவாக இல்லை. AI தொடர்பான சட்ட மற்றும் தார்மீக கட்டமைப்புகள் இன்னும் ஆரம்ப நிலையிலேயே உள்ளன. மேலும் அவை இந்தத் துறையில் ஏற்படும் விரைவான முன்னேற்றங்களுக்கு ஈடுகொடுத்துச் செல்ல முடியாமல் திணறுகின்றன. AI மாடல்கள் பெருகிய முறையில் சிக்கலானதாக மாறுவதால் ஊக்கம், தழுவல் மற்றும் அப்பட்டமான நகலெடுப்பு ஆகியவற்றுக்கு இடையேயான எல்லைகள் மங்கலாகின்றன.
மாசு கலந்த புதிர்: AI-க்களின் தோற்றத்தை கண்டுபிடித்தல்
இந்த சிக்கலான வலையில் மற்றொரு அடுக்கைச் சேர்ப்பது AI மாசுவின் அதிகரித்து வரும் நிகழ்வு. ஒரு காலத்தில் AI மாடல்களைப் பயிற்றுவிப்பதற்கான தூய்மையான தரவு மூலமாக இருந்த இணையம், இப்போது AI-யால் உருவாக்கப்பட்ட உள்ளடக்கத்தால் நிறைந்துள்ளது. இது ஒரு பின்னூட்ட சுழற்சியை உருவாக்குகிறது; இதில் AI மாடல்கள் மற்ற AI மாடல்களால் உருவாக்கப்பட்ட தரவுகளில் பயிற்சி செய்யப்படுகின்றன. இந்த சுய-குறிப்பு கற்றல் செயல்முறை எதிர்பாராத விளைவுகளுக்கு வழிவகுக்கும், இதில் சார்புகளின் பெருக்கம் மற்றும் தவறான தகவல்களின் பரவல் ஆகியவை அடங்கும்.
ஆனால் DeepSeek வழக்கில், இந்த மாசு எந்தவொரு மாதிரியின் உண்மையான, அசல் பயிற்சி ஆதாரங்களையும் தீர்மானிப்பதை மிகவும் கடினமாக்குகிறது. ஒரு மாதிரி Google இன் ஜெமினியிலிருந்து வெளியீடுகளைக் கொண்ட தரவுத்தொகுப்பில் பயிற்சி செய்யப்பட்டால், மாதிரி வேண்டுமென்றே ஜெமினி தரவில் பயிற்சி செய்யப்பட்டது என்பதை உறுதியாக நிரூபிப்பது சாத்தியமற்றது. இந்த "மாசு" ஆதாரத்தை மறைத்து, மாதிரியின் தோற்றத்தைக் கண்டுபிடிப்பதையும், ஏதேனும் அறிவுசார் சொத்துரிமைகள் மீறப்பட்டதா என்பதை நிறுவுவதையும் கடினமாக்குகிறது.
இது ஆராய்ச்சியாளர்கள் மற்றும் நிறுவனங்களுக்கு ஒரு குறிப்பிடத்தக்க சவாலாக உள்ளது. AI மாடல்கள் ஒன்றுடன் ஒன்று இணைக்கப்படுவதால் மற்றும் இணையம் பெருகிய முறையில் AI-மையமாக மாறுவதால், மாதிரி செயல்திறன் மற்றும் பண்புகளை குறிப்பிட்ட பயிற்சித் தரவுகளுக்கு காரணம் காட்டுவது மிகவும் கடினமாகிவிடும். AI-ன் "கருப்புப் பெட்டி" அமைப்பு, இணையத்தின் எங்கும் நிறைந்த மாசுவுடன் இணைந்து, தெளிவற்ற மற்றும் நிச்சயமற்ற ஒரு சரியான புயலை உருவாக்குகிறது.
கோட்டை மனப்பான்மை: திறந்த ஒத்துழைப்பிலிருந்து போட்டி ரகசியம் வரை
AI மாசுவின் அதிகரிப்பு மற்றும் அறிவுசார் சொத்து அபாயங்கள் குறித்த அதிகரித்து வரும் விழிப்புணர்வு ஆகியவை AI துறையில் ஒரு குறிப்பிடத்தக்க மாற்றத்திற்கு வழிவகுத்துள்ளன; அதாவது திறந்த ஒத்துழைப்பு என்ற மனப்பான்மையில் இருந்து அதிக பாதுகாப்பான மற்றும் போட்டி நிலப்பரப்புக்கு மாறியது. AI ஆய்வகங்கள் ஒரு காலத்தில் தங்கள் ஆராய்ச்சி மற்றும் தரவுகளை பரந்த சமூகத்துடன் பகிர்ந்து கொள்ள ஆர்வமாக இருந்தன. தற்போது அந்த ஆய்வகங்கள் தங்களது தனியுரிம தகவல் மற்றும் போட்டி நன்மைகளைப் பாதுகாக்க பாதுகாப்பு நடவடிக்கைகளை மேற்கொண்டு வருகின்றன.
உயர் பங்குகளை கருத்தில் கொண்டு, இந்த மாற்றம் புரிந்துகொள்ளத்தக்கது. AI பந்தயம் என்பது ஒரு உலகளாவிய போட்டி; இதில் பில்லியன் கணக்கான டாலர்கள் மற்றும் தொழில்நுட்பத்தின் எதிர்காலம் ஆபத்தில் உள்ளது. நிறுவனங்கள் புதுமைகளை உருவாக்குவதற்கும், போட்டி நன்மைகளைப் பெறுவதற்கும் அதிக அழுத்தத்தில் உள்ளன; மேலும் அவை தங்கள் ரகசியங்களை போட்டியாளர்களுடன் பகிர்ந்து கொள்ள மிகவும் தயங்குகின்றன.
இதன் விளைவாக ரகசியம் மற்றும் பிரத்தியேகத்திற்கான போக்கு அதிகரித்து வருகிறது. AI ஆய்வகங்கள் தங்கள் மாதிரிகள் மற்றும் தரவுகளுக்கான அணுகலைக் கட்டுப்படுத்துகின்றன. கடுமையான பாதுகாப்பு நெறிமுறைகளைச் செயல்படுத்துகின்றன மேலும் பொதுவாக ஒத்துழைப்புக்கு அதிக எச்சரிக்கையான அணுகுமுறையை மேற்கொள்கின்றன. இந்த "கோட்டை மனப்பான்மை" நீண்ட காலத்திற்கு புதுமைகளைத் தடுக்கலாம், ஆனால் குறுகிய காலத்தில் அறிவுசார் சொத்தைப் பாதுகாக்கவும், போட்டி நன்மைகளைத் தக்கவைக்கவும் இது ஒரு அவசியமான நடவடிக்கையாகக் கருதப்படுகிறது.
DeepSeek சர்ச்சை, AI தொடர்ந்து வளர்ச்சியடைந்து வருவதால் எதிர்காலத்தில் நாம் எதிர்கொள்ளும் தார்மீக மற்றும் சட்ட சவால்களைப் பற்றிய ஒரு தெளிவான நினைவூட்டலாக செயல்படுகிறது. AI அதிக சக்தி வாய்ந்ததாகவும், பரவலானதாகவும் மாறும் போது, அதை பொறுப்புடனும் தார்மீகத்துடனும் பயன்படுத்துவதை உறுதி செய்வதற்காக தெளிவான தார்மீக வழிகாட்டுதல்களையும் சட்ட கட்டமைப்புகளையும் உருவாக்க வேண்டியது அவசியம். AI இன் எதிர்காலம் அதைச் சார்ந்துள்ளது. அறிவுசார் சொத்துரிமைகளைப் பாதுகாக்கும் அதே வேளையில் புதுமைகளை எவ்வாறு வளர்ப்பது என்று நாம் நம்மை நாமே கேட்டுக்கொள்ள வேண்டும்.
நரம்பியல் வலைப்பின்னல்களின் நுணுக்கங்கள்: எளிய நகலெடுப்பிற்கு அப்பால்
AI மாடல்களுக்கு இடையே உள்ள ஒற்றுமைகள் நேரடி நகலெடுப்பதைக் குறிக்கின்றன என்று கருதுவது எளிது, ஆனால் உண்மை மிகவும் சிக்கலானது. நரம்பியல் வலைப்பின்னல்கள் (Neural networks) அடிப்படையில் பரந்த அளவிலான தரவுகளிலிருந்து கற்கும் ஒன்றோடொன்று இணைக்கப்பட்ட கணுக்களின் சிக்கலான அமைப்புகள். இரண்டு மாதிரிகள் ஒரே மாதிரியான தரவுத்தொகுப்புகளுக்கு வெளிப்படுத்தப்பட்டாலோ அல்லது ஒரே மாதிரியான சிக்கல்களைத் தீர்க்கப் பயிற்சி அளிக்கப்பட்டாலோ, அவை ஒரே மாதிரியான தீர்வுகள் மற்றும் கட்டமைப்பு வடிவங்களில் சுயாதீனமாக ஒன்றிணையும்.
இந்த நிகழ்வு, ஒருங்கிணைந்த பரிணாமம் (convergent evolution) என்று அழைக்கப்படுகிறது. இது உயிரியல் உட்பட பல துறைகளில் பொதுவானது. வெவ்வேறு இனங்கள் ஒரே மாதிரியான சுற்றுச்சூழல் அழுத்தங்களுக்கு பதிலளிக்கும் விதமாக ஒரே மாதிரியான பண்புகளைச் சுயாதீனமாக உருவாக்க முடியும் என்பதைப் போலவே, AI மாடல்களும் ஒரே மாதிரியான பயிற்சி தூண்டுதல்களுக்கு பதிலளிக்கும் விதமாக ஒரே மாதிரியான கட்டமைப்புகள் மற்றும் வழிமுறைகளைச் சுயாதீனமாக உருவாக்க முடியும்.
உண்மையான நகலெடுப்பிற்கும் ஒன்றிணைந்த பரிணாமத்திற்கும் வேறுபாடு காண்பது ஒரு முக்கியமான சவாலாகும். இதற்கு அடிப்படை வழிமுறைகள் மற்றும் பயிற்சி செயல்முறைகள் பற்றிய ஆழமான புரிதல் தேவைப்படுகிறது. அத்துடன் மாதிரிகளைப் பயிற்றுவிக்கப் பயன்படுத்தப்படும் தரவுகளின் கவனமான பகுப்பாய்வும் தேவைப்படுகிறது. செயல்திறன் அல்லது வெளியீட்டில் உள்ள ஒற்றுமைகளை வெறுமனே கவனிப்பது நகலெடுப்பு நிகழ்ந்துள்ளது என்று முடிவு செய்ய போதுமானதாக இல்லை.
அளவுகோல்களின் பங்கு: இருபக்கமும் கூரான கத்தி
AI அளவுகோல்கள் வெவ்வேறு மாதிரிகளின் செயல்திறனை மதிப்பீடு செய்வதிலும் ஒப்பிடுவதிலும் ஒரு முக்கியமான பங்கை வகிக்கின்றன. இந்த தரப்படுத்தப்பட்ட சோதனைகள் மொழி புரிதல், கணித பகுத்தறிவு மற்றும் பட அங்கீகாரம் போன்ற பல்வேறு திறன்களை மதிப்பிடுவதற்கான ஒரு பொதுவான கட்டமைப்பை வழங்குகின்றன. ஆராய்ச்சியாளர்கள் காலப்போக்கில் முன்னேற்றத்தைக் கண்காணிக்கவும், மேம்பாடுகள் தேவைப்படும் பகுதிகளை அடையாளம் காணவும் அளவுகோல்கள் அனுமதிக்கின்றன.
இருப்பினும் அளவுகோல்களை வைத்து விளையாடலாம். AI டெவலப்பர்கள் சில அளவுகோல்களில் சிறப்பாக செயல்பட தங்கள் மாதிரிகளைச் சிறப்பாக வடிவமைக்கலாம். இது ஒட்டுமொத்த செயல்திறன் அல்லது பொதுமைப்படுத்தும் திறனை பாதிக்கும். மேலும் சில அளவுகோல்கள் பாரபட்சமாகவோ அல்லது முழுமையற்றதாகவோ இருக்கலாம். அவை மாதிரியின் உண்மையான திறன்களைப் பற்றிய தவறான படத்தைக் காட்டுகின்றன.
ஆகையால் அளவுகோல் முடிவுகளை கவனத்துடன் விளக்குவதும், அவற்றை பிற அளவீடுகளுடன் சேர்த்து கருத்தில் கொள்வதும் முக்கியம். அளவுகோல்களை மட்டுமே நம்பியிருப்பது குறிப்பிட்ட பணிகளில் குறுகிய கவனம் செலுத்துவதற்கும், உறுதிப்பாடு, நியாயம் மற்றும் தார்மீகக் கருத்தாய்வுகள் போன்ற AI மேம்பாட்டின் பிற முக்கியமான அம்சங்களை புறக்கணிப்பதற்கும் வழிவகுக்கும். AI இன் சிக்கலானது அளவுகோள்களாகக் குறைக்கப்படும்போது பெரும்பாலும் மழுங்கடிக்கப்படுகிறது.
பங்களிப்பைத் தாண்டி: பொறுப்பான AI மேம்பாட்டில் கவனம் செலுத்துதல்
DeepSeek நிறுவனம் ஜெமினி தரவைப் பயன்படுத்தியதா என்பது குறித்த விவாதம் ஒரு முக்கியமானதாக இருந்தாலும், பொறுப்பான AI மேம்பாடு பற்றிய பரந்த உரையாடல் மிகவும் முக்கியமானது. AI நம் வாழ்வில் பெருகிய முறையில் ஒருங்கிணைக்கப்படுவதால் அதை சமுதாயத்திற்கு பயனளிக்கும் வகையில் பயன்படுத்துவதை உறுதி செய்வதற்காக நாம் தெளிவான தார்மீக வழிகாட்டுதல்களையும் சட்ட கட்டமைப்புகளையும் உருவாக்க வேண்டியது அவசியம்.
பொறுப்பான AI மேம்பாடு பரந்த அளவிலான கருத்தாய்வுகளை உள்ளடக்கியது:
- நியாயம்: AI அமைப்புகள் சில குழுக்களுக்கு எதிராக பாகுபாடு காட்டாமல் அல்லது ஏற்கனவே உள்ள சார்புகளை நிலைநிறுத்தாமல் இருப்பதை உறுதி செய்தல்.
- வெளிப்படைத்தன்மை: AI அமைப்புகளை மிகவும் புரிந்துகொள்ளக்கூடியதாகவும் விளக்கக்கூடியதாகவும் மாற்றுதல். இதனால் பயனர்கள் அவை எவ்வாறு செயல்படுகின்றன என்பதையும், ஏன் சில முடிவுகளை எடுக்கின்றன என்பதையும் புரிந்து கொள்ள முடியும்.
- பொறுப்புக்கூறல்: AI அமைப்புகளின் செயல்களுக்கு தெளிவான பொறுப்புக் கோடுகளை நிறுவுதல். இதனால் அந்த அமைப்புகளால் ஏற்படும் எந்தவொரு தீங்குக்கும் தனிநபர்கள் அல்லது நிறுவனங்கள் பொறுப்பேற்க முடியும்.
- தனியுரிமை: AI அமைப்புகளை பயிற்றுவிக்கப் பயன்படுத்தப்படும் தரவுகள் கொண்ட தனிநபர்களின் தனியுரிமையைப் பாதுகாத்தல்.
- பாதுகாப்பு: AI அமைப்புகள் பாதுகாப்பானதாகவும் தாக்குதல்களைத் தாங்கக்கூடியதாகவும் இருப்பதை உறுதி செய்தல்.
இந்த சவால்களை எதிர்கொள்ள ஆராய்ச்சியாளர்கள், டெவலப்பர்கள், கொள்கை வகுப்பாளர்கள் மற்றும் பொதுமக்கள் ஆகியோரின் கூட்டு முயற்சி தேவை. AI இன் சாத்தியமான அபாயங்கள் மற்றும் நன்மைகள் குறித்து வெளிப்படையான மற்றும் நேர்மையான உரையாடல்களில் ஈடுபட வேண்டும். அத்துடன் தொழில்நுட்ப நிபுணத்துவம் மற்றும் தார்மீகக் கருத்தாய்வுகள் இரண்டையும் அடிப்படையாகக் கொண்ட தீர்வுகளை உருவாக்க வேண்டும்.
AI-இன் எதிர்காலம்: தார்மீக பிரமையில் பயணித்தல்
DeepSeek சர்ச்சை என்பது AI தொடர்ந்து வளர்ச்சியடையும்போது நாம் எதிர்கொள்ளும் தார்மீக சிக்கல்களுக்கு ஒரு எடுத்துக்காட்டு மட்டுமே. AI அதிக சக்தி வாய்ந்ததாகவும் தன்னிச்சையாகவும் மாறும் போது, அது தனிநபர்கள், நிறுவனங்கள் மற்றும் ஒட்டுமொத்த சமுதாயத்திற்கும் குறிப்பிடத்தக்க விளைவுகளை ஏற்படுத்தும் முடிவுகளை எடுக்க முடியும்.
இந்த தார்மீக பிரமையில் பயணிக்கவும், AI ஐப் பொறுப்புடனும் தார்மீகத்துடனும் பயன்படுத்த உதவும் கருவிகள் மற்றும் கட்டமைப்புகளை உருவாக்கவும் நாம் தயாராக இருக்க வேண்டும். இதற்கு வெளிப்படைத்தன்மை, பொறுப்புக்கூறல் மற்றும் நியாயம் ஆகியவற்றில் உறுதி வேண்டும். அத்துடன் AI இன் எதிர்காலம் குறித்து கடினமான உரையாடல்களில் ஈடுபடுவதற்கும் விருப்பம் இருக்க வேண்டும்.
AI இன் எதிர்காலம் முன்னரே தீர்மானிக்கப்படவில்லை. மனித குலத்திற்கு பயனளிக்கும் வகையில் அதை வடிவமைப்பது நம் கையில் தான் உள்ளது. பொறுப்பான AI மேம்பாட்டு நடைமுறைகளை பின்பற்றுவதன் மூலம், உலகின் மிகவும் அழுத்தமான பிரச்சனைகளைத் தீர்க்க AI இன் சக்தியைப் பயன்படுத்தலாம். அதே நேரத்தில் அபாயங்களைக் குறைத்து, AI நல்ல நோக்கங்களுக்காகப் பயன்படுத்தப்படுவதை உறுதி செய்யலாம். பாதைகள் எளிதாக இல்லை, ஆனால் சாத்தியமான நன்மைகள் கணிசமானவை. AI புரட்சி பெரிய வாக்குறுதியையும் ஆபத்தையும் தருகிறது.