சமீபத்திய ஆய்வுகள் ஒரு கவலையளிக்கும் போக்கைக் காட்டுகின்றன: புதிய ChatGPT மாதிரிகள் அவற்றின் முன்னோடிகளை விட அதிக விகிதத்தில் பிரமைகளை வெளிப்படுத்துகின்றன. பெரிய மொழி மாதிரிகளில் (LLMs) மேம்பட்ட திறன்களுக்கும் நம்பகத்தன்மைக்கும் இடையிலான வர்த்தக பரிமாற்றங்கள் குறித்து இந்த கண்டுபிடிப்பு முக்கியமான கேள்விகளை எழுப்புகிறது. இந்த கண்டுபிடிப்புகளின் விவரங்களை ஆராய்வோம், மேலும் சாத்தியமான தாக்கங்களை ஆராய்வோம்.
நிகழ்வைப் புரிந்துகொள்வது
OpenAI’இன் உள் சோதனைகள், சமீபத்திய ஆய்வறிக்கையில் விவரிக்கப்பட்டுள்ளபடி, o3 மற்றும் o4-mini போன்ற மாதிரிகளில் பிரமை விகிதங்களில் குறிப்பிடத்தக்க அதிகரிப்பைக் காட்டுகின்றன. மேம்பட்ட பகுத்தறிவு மற்றும் பல்லூடக திறன்களுடன் வடிவமைக்கப்பட்ட இந்த மாதிரிகள், AI தொழில்நுட்பத்தின் அதிநவீனத்தை பிரதிபலிக்கின்றன. அவை படங்களை உருவாக்கலாம், இணையத் தேடல்களை நடத்தலாம், பணிகளை தானியக்கமாக்கலாம், கடந்தகால உரையாடல்களை நினைவில் கொள்ள முடியும், மேலும் சிக்கலான சிக்கல்களைத் தீர்க்க முடியும். இருப்பினும், இந்த முன்னேற்றங்கள் ஒரு விலையுடன் வருகின்றன.
இந்த பிரமைகளின் அளவை அளவிட, OpenAI PersonQA எனப்படும் ஒரு குறிப்பிட்ட சோதனையைப் பயன்படுத்துகிறது. இந்த சோதனையில், மாதிரிக்கு பல்வேறு நபர்களைப் பற்றிய உண்மைகளின் தொகுப்பை உள்ளிட்டு, பின்னர் அந்த நபர்களைப் பற்றிய கேள்விகளை எழுப்புகிறது. சரியான பதில்களை வழங்கும் திறனை அடிப்படையாகக் கொண்டு மாதிரியின் துல்லியம் பின்னர் மதிப்பீடு செய்யப்படுகிறது.
முந்தைய மதிப்பீடுகளில், o1 மாதிரி 47% துல்லியமான விகிதத்தை 16% பிரமை விகிதத்துடன் எட்டியது. இருப்பினும், o3 மற்றும் o4-mini அதே மதிப்பீட்டிற்கு உட்படுத்தப்பட்டபோது, முடிவுகள் மிகவும் வேறுபட்டன.
o4-mini மாதிரி, குறைந்த உலக அறிவைக் கொண்ட ஒரு சிறிய மாறுபாடு என்பதால், அதிக பிரமை விகிதத்தை வெளிப்படுத்தும் என்று எதிர்பார்க்கப்பட்டது. இருப்பினும், 48% உண்மையான விகிதம் ஆச்சரியமாக இருந்தது, o4-mini இணையத் தேடல்கள் மற்றும் தகவல்களைப் மீட்டெடுப்பதற்காக பரவலாகப் பயன்படுத்தப்படும் வணிக ரீதியாக கிடைக்கக்கூடிய தயாரிப்பு என்பதைக் கருத்தில் கொண்டு.
முழு அளவிலான o3 மாதிரியும் பிரமைக்கு ஒரு கவலையான போக்கைக் காட்டியது. அதன் பதில்களில் 33% இல், மாதிரி தகவல்களை புனைந்தது, o1 மாதிரியின் பிரமை விகிதத்தை இரட்டிப்பாக்கியது. இருந்தபோதிலும், o3 அதிக துல்லியமான விகிதத்தையும் எட்டியது, இது ஒட்டுமொத்தமாக அதிக கூற்றுக்களை உருவாக்கும் அதன் விருப்பத்திற்கு OpenAI காரணம் கூறுகிறது.
பிரமைகளை வரையறுத்தல்
AI சூழலில் “பிரமை” என்ற சொல், எந்தவொரு வெளிப்படையான ஆதாரம் அல்லது நியாயப்படுத்தலும் இல்லாமல் உண்மையில் தவறான அல்லது அர்த்தமற்ற பதில்களை உருவாக்கும் மாதிரியின் போக்கைக் குறிக்கிறது. இவை மோசமான தரவு அல்லது தவறான விளக்கத்திலிருந்து எழும் தவறுகள் அல்ல. மாறாக, பிரமைகள் மாதிரியின் பகுத்தறிவு செயல்பாட்டில் ஒரு அடிப்படையான குறைபாட்டை பிரதிபலிக்கின்றன.
Wikipedia உள்ளீடுகள் அல்லது Reddit இழைகள் போன்ற பல்வேறு ஆதாரங்களில் இருந்து தவறான தகவல்கள் நிச்சயமாக உருவாகலாம் என்றாலும், இந்த நிகழ்வுகள் குறிப்பிட்ட தரவு புள்ளிகளுக்கு காரணமாகக் கூறக்கூடிய தடமறியக்கூடிய பிழைகளுக்கு மிகவும் ஒத்தவை. மறுபுறம், பிரமைகள், நிச்சயமற்ற தருணங்களில் AI மாதிரியின் கண்டுபிடிப்புகளால் வகைப்படுத்தப்படுகின்றன, ஒரு நிகழ்வை சில நிபுணர்கள் “ஆக்கப்பூர்வமான இடைவெளி நிரப்புதல்” என்று அழைக்கின்றனர்.
இந்த புள்ளியை விளக்க, “சந்தையில் இப்போது கிடைக்கும் ஏழு iPhone 16 மாதிரிகள் என்ன?” என்ற கேள்வியைக் கவனியுங்கள். அடுத்த iPhone என்னவாக இருக்கும் என்பது Apple க்கு மட்டுமே தெரியும் என்பதால், LLM சில உண்மையான பதில்களை வழங்க வாய்ப்புள்ளது - பின்னர் வேலையை முடிக்க கூடுதல் மாதிரிகளை உருவாக்கும். இது பிரமைக்கு ஒரு தெளிவான எடுத்துக்காட்டு, அங்கு மாதிரி பணியை முடிக்க தகவல்களை உருவாக்குகிறது, அல்லது “ஆக்கப்பூர்வமான இடைவெளி நிரப்புதல்” என்று குறிப்பிடப்படுகிறது.
பயிற்சித் தரவின் பங்கு
ChatGPT போன்ற சாட்போட்கள் இணையத் தரவுகளின் பரந்த அளவுகளில் பயிற்சி அளிக்கப்படுகின்றன. இந்தத் தரவு அவற்றின் பதில்களின் உள்ளடக்கத்திற்குத் தெரிவிக்கிறது, ஆனால் அவை எவ்வாறு பதிலளிக்கின்றன என்பதையும் வடிவமைக்கிறது. மாதிரிகள் எண்ணற்ற வினவல்கள் மற்றும் பொருந்தக்கூடிய சிறந்த பதில்களின் எடுத்துக்காட்டுகளுக்கு வெளிப்படுத்தப்படுகின்றன, இது குறிப்பிட்ட தொனிகள், அணுகுமுறைகள் மற்றும் மரியாதையின் அளவை வலுப்படுத்துகிறது.
இந்த பயிற்சி செயல்முறை தற்செயலாக பிரமைகளின் பிரச்சனைக்கு பங்களிக்கும். நேரடியாக கேள்விக்கு பதிலளிக்கும் நம்பிக்கையான பதில்களை வழங்க மாதிரிகள் ஊக்குவிக்கப்படுகின்றன. பதில் தெரியாது என்று ஒப்புக்கொள்வதை விட, தகவல்களை உருவாக்க வேண்டியிருந்தாலும், கேள்விக்கு பதிலளிப்பதற்கு முன்னுரிமை அளிக்க இது வழிவகுக்கும்.
சாராம்சத்தில், பயிற்சி செயல்முறை உண்மையில் தவறான பதில்களாக இருந்தாலும், நம்பிக்கையான மற்றும் தெரிந்துகொள்ளும் பதில்களைத் தற்செயலாக வெகுமதி அளிக்கக்கூடும். இது துல்லியத்தைப் பொருட்படுத்தாமல், பதில்களை உருவாக்குவதற்கான ஒரு சார்பை உருவாக்கலாம், இது பிரமைகளின் பிரச்சனையை அதிகப்படுத்தக்கூடும்.
AI தவறுகளின் இயல்பு
AI தவறுகளுக்கும் மனித தவறுகளுக்கும் இடையே ஒற்றுமைகளை வரைய தூண்டுகிறது. எல்லாவற்றிற்கும் மேலாக, மனிதர்கள் தவறானவர்கள் அல்ல, AI சரியானது என்று எதிர்பார்க்கக்கூடாது. இருப்பினும், AI தவறுகள் மனித தவறுகளை விட அடிப்படையில் வேறுபட்ட செயல்முறைகளிலிருந்து உருவாகின்றன என்பதை அங்கீகரிப்பது அவசியம்.
AI மாதிரிகள் பொய் சொல்லவோ, தவறாகப் புரிந்து கொள்ளவோ அல்லது மனிதர்கள் செய்வது போல தகவல்களை தவறாக நினைவில் கொள்ளவோ இல்லை. மனித பகுத்தறிவை ஆதரிக்கும் அறிவாற்றல் திறன்களும் சூழ்நிலை விழிப்புணர்வும் அவர்களுக்கு இல்லை. அதற்கு பதிலாக, அவை நிகழ்தகவுகளை அடிப்படையாகக் கொண்டு செயல்படுகின்றன, அவற்றின் பயிற்சித் தரவுகளில் காணப்பட்ட வடிவங்களின் அடிப்படையில் ஒரு வாக்கியத்தில் அடுத்த வார்த்தையை கணிக்கின்றன.
இந்த நிகழ்தகவு அணுகுமுறை என்பது AI மாதிரிகள் துல்லியம் அல்லது துல்லியமின்மை பற்றிய உண்மையான புரிதலைக் கொண்டிருக்கவில்லை. அவர்கள் தங்கள் பயிற்சித் தரவிலிருந்து கற்ற புள்ளிவிவர உறவுகளை அடிப்படையாகக் கொண்டு மிகவும் சாத்தியமான சொற்களின் வரிசையை உருவாக்குகிறார்கள். இது வெளிப்படையாக ஒத்திசைவான பதில்களை உருவாக்க வழிவகுக்கும், அவை உண்மையில் தவறானவை.
மாதிரிகளுக்கு ஒரு முழு இணையத்தின் மதிப்புள்ள தகவல்கள் வழங்கப்பட்டாலும், எந்தத் தகவல் நல்லது அல்லது கெட்டது, துல்லியமானது அல்லது தவறானது என்று அவர்களிடம் கூறப்படவில்லை - அவர்களிடம் எதுவும் சொல்லப்படவில்லை. அவர்களுக்கு ஏற்கனவே இருக்கும் அடிப்படை அறிவு அல்லது தகவல்களைத் தாங்களே வரிசைப்படுத்த உதவும் அடிப்படை கொள்கைகளின் தொகுப்பு இல்லை. இது ஒரு எண்களின் விளையாட்டு - ஒரு குறிப்பிட்ட சூழலில் மிகவும் அடிக்கடி இருக்கும் சொற்களின் வடிவங்கள் LLM இன் “உண்மை” ஆகின்றன.
சவாலை எதிர்கொள்ளுதல்
மேம்பட்ட AI மாதிரிகளில் பிரமைகளின் அதிகரிப்பு ஒரு குறிப்பிடத்தக்க சவாலை ஏற்படுத்துகிறது. OpenAI மற்றும் பிற AI டெவலப்பர்கள் இந்த சிக்கலைப் புரிந்துகொண்டு தணிக்கும் முயற்சியில் தீவிரமாக ஈடுபட்டுள்ளனர். இருப்பினும், பிரமைகளின் அடிப்படைக் காரணங்கள் முழுமையாகப் புரிந்து கொள்ளப்படவில்லை, மேலும் பயனுள்ள தீர்வுகளைக் கண்டுபிடிப்பது ஒரு தொடர்ச்சியான முயற்சியாக உள்ளது.
பயிற்சி தரவின் தரம் மற்றும் பன்முகத்தன்மையை மேம்படுத்துவதே ஒரு சாத்தியமான அணுகுமுறை. மாதிரிகளை மேலும் துல்லியமான மற்றும் விரிவான தகவல்களுக்கு வெளிப்படுத்துவதன் மூலம், தவறான தகவல்களைக் கற்றுக் கொண்டு அதை நிலைநிறுத்தும் வாய்ப்பைக் குறைக்கலாம்.
பிரமைகளைக் கண்டறிந்து தடுப்பதற்கான மிகவும் அதிநவீன நுட்பங்களை உருவாக்குவது மற்றொரு அணுகுமுறை. ஒரு குறிப்பிட்ட தகவல் குறித்து தங்களுக்கு நிச்சயமற்றதாக இருக்கும்போது அடையாளம் காணவும், போதுமான சான்றுகள் இல்லாமல் கூற்றுக்களை உருவாக்குவதைத் தவிர்க்கவும் மாதிரிகளுக்கு பயிற்சி அளிப்பதை இது உள்ளடக்கியிருக்கலாம்.
இதற்கிடையில், OpenAI ஒரு குறுகிய கால தீர்வை நாட வேண்டியிருக்கலாம், அத்துடன் அடிப்படைக் காரணத்தை ஆராய்வதைத் தொடரலாம். எல்லாவற்றிற்கும் மேலாக, இந்த மாதிரிகள் பணம் சம்பாதிக்கும் தயாரிப்புகள் மற்றும் அவை பயன்படுத்தக்கூடிய நிலையில் இருக்க வேண்டும். ஒரு யோசனை என்னவென்றால், ஒரு ஒருங்கிணைந்த தயாரிப்பை உருவாக்குவது - பலவிதமான OpenAI மாதிரிகளுக்கான அணுகலைக் கொண்ட ஒரு சாட் இடைமுகம்.
ஒரு வினவலுக்கு மேம்பட்ட பகுத்தறிவு தேவைப்படும்போது, அது GPT-4o ஐ அழைக்கும், மேலும் பிரமைகளின் வாய்ப்புகளைக் குறைக்க விரும்பினால், அது o1 போன்ற பழைய மாதிரியை அழைக்கும். ஒரு தனிப்பட்ட வினவலின் வெவ்வேறு கூறுகளை கவனித்துக்கொள்வதற்கும், பின்னர் அனைத்தையும் ஒன்றாக இணைக்க கூடுதல் மாதிரியைப் பயன்படுத்துவதற்கும் நிறுவனம் இன்னும் அருமையாக இருக்க முடியும். இது அடிப்படையில் பல AI மாதிரிகளுக்கு இடையிலான குழுப்பணியாக இருப்பதால், ஒரு வகையான உண்மை சரிபார்ப்பு முறையையும் செயல்படுத்தலாம்.
துல்லிய விகிதங்களை உயர்த்துவது முக்கிய குறிக்கோள் அல்ல. பிரமை விகிதங்களைக் குறைப்பதே முக்கிய குறிக்கோள், அதாவது ‘எனக்குத் தெரியாது’ என்று கூறும் பதில்களுக்கும் சரியான பதில்களுக்கும் நாங்கள் மதிப்பளிக்க வேண்டும்.
உண்மைச் சரிபார்ப்பின் முக்கியத்துவம்
AI மாதிரிகளில் பிரமைகளின் அதிகரித்து வரும் பரவல் உண்மைச் சரிபார்ப்பின் முக்கியத்துவத்தை அடிக்கோடிட்டுக் காட்டுகிறது. இந்த மாதிரிகள் தகவல்களை மீட்டெடுப்பதற்கும் பணிகளை தானியக்கமாக்குவதற்கும் மதிப்புமிக்க கருவிகளாக இருக்கக்கூடும் என்றாலும், அவை உண்மையின் தவறான ஆதாரங்களாக கருதப்படக்கூடாது.
AI மாதிரிகளின் வெளியீட்டை விளக்கும்போது பயனர்கள் எப்போதும் எச்சரிக்கையுடன் செயல்பட வேண்டும், மேலும் அவர்கள் பெறும் எந்த தகவலையும் சுயாதீனமாக சரிபார்க்க வேண்டும். உணர்திறன் அல்லது பின்விளைவு விஷயங்களைக் கையாளும் போது இது மிகவும் முக்கியமானது.
AI-உருவாக்கிய உள்ளடக்கத்திற்கு ஒரு முக்கியமான மற்றும் சந்தேகம் நிறைந்த அணுகுமுறையை மேற்கொள்வதன் மூலம், பிரமைகளுடன் தொடர்புடைய அபாயங்களைத் தணிக்கலாம் மற்றும் துல்லியமான தகவல்களின் அடிப்படையில் தகவலறிந்த முடிவுகளை எடுக்கிறோம் என்பதை உறுதிப்படுத்திக் கொள்ள முடியும். நீங்கள் LLMகளுக்குள் பெரிதாக இருந்தால், அவற்றைப் பயன்படுத்துவதை நிறுத்த வேண்டிய அவசியமில்லை - ஆனால் நேரத்தை மிச்சப்படுத்தும் ஆசை முடிவுகளை உண்மைச் சரிபார்க்கும் தேவையை விட அதிகமாக வெல்ல விடாதீர்கள். எப்போதும் உண்மைச் சரிபார்க்கவும்!
AI இன் எதிர்காலத்திற்கான தாக்கங்கள்
பிரமைகளின் சவால் AI இன் எதிர்காலத்திற்கு குறிப்பிடத்தக்க தாக்கங்களைக் கொண்டுள்ளது. AI மாதிரிகள் நமது வாழ்க்கையில் அதிக ஒருங்கிணைந்ததாக இருப்பதால், அவை நம்பகமானதாகவும் நம்பகமானதாகவும் இருப்பது அவசியம். AI மாதிரிகள் தவறான அல்லது தவறான தகவல்களை உருவாக்க வாய்ப்பிருந்தால், அது பொது நம்பிக்கையை அரித்து பரவலான தத்தெடுப்பைத் தடுக்கலாம்.
AI மாதிரிகளின் துல்லியத்தை மேம்படுத்துவதற்கு மட்டுமல்லாமல், அவற்றின் நெறிமுறை மற்றும் பொறுப்பான பயன்பாட்டை உறுதி செய்வதற்கும் பிரமைகளின் சிக்கலை நிவர்த்தி செய்வது முக்கியம். பிரமைகளுக்கு குறைவான வாய்ப்புள்ள AI அமைப்புகளை உருவாக்குவதன் மூலம், தவறான தகவல் மற்றும் ஏமாற்றத்தின் அபாயங்களைக் குறைக்கும்போது நன்மைக்கான அவற்றின் திறனைப் பயன்படுத்த முடியும்.