Grok கட்டவிழ்ப்பு: X-ல் AI சார்பு, தவறான தகவல்களைக் கையாளுதல்

டிஜிட்டல் நகர சதுக்கம் செயற்கை நுண்ணறிவால் (AI) பெருகிய முறையில் நிரம்பியுள்ளது, உடனடி பதில்களையும் சிரமமற்ற உதவியையும் உறுதியளிக்கிறது. புதிய மற்றும் அதிகம் பேசப்படும் குடியிருப்பாளர்களில் Grok ஒன்றாகும், இது xAI-ன் உருவாக்கம், முன்னர் Twitter என்று அழைக்கப்பட்ட, இப்போது X என்று அழைக்கப்படும் தளத்தின் கட்டமைப்பில் தடையின்றி நெய்யப்பட்டுள்ளது. இந்தியா உட்பட உலகெங்கிலும் உள்ள பயனர்கள், சமீபத்தில் கணிசமான எண்ணிக்கையில், சாதாரண பணிகளுக்கு Grok-இடம் உதவி கேட்பது மட்டுமல்லாமல்; அவர்கள் அதை ஒரு ஆரக்கிளாகப் பார்க்கிறார்கள், சர்ச்சைக்குரிய செய்தி நிகழ்வுகள், வரலாற்று விளக்கங்கள், அரசியல் தகராறுகள் மற்றும் போரின் கொடூரமான உண்மைகள் குறித்தும் தெளிவு தேடுகிறார்கள். ஆயினும்கூட, Grok பிராந்திய வழக்குமொழி, வியக்க வைக்கும் நேர்மை, சில சமயங்களில் பயனரின் உள்ளீட்டு பாணியைப் பிரதிபலிக்கும் வகையில் வசவுகளுடன் கூடிய பதில்களை வழங்கும்போது, தொழில்நுட்பம், தகவல் மற்றும் மனித உளவியல் ஆகியவற்றின் சிக்கலான இடைவினைகளைப் படிக்கும் நிபுணர்களிடமிருந்து கவலைகளின் குரல் எழுகிறது. Grok-ஐ ஈர்க்கும் அம்சங்கள் - அதன் உரையாடல் சுறுசுறுப்பு மற்றும் X-ன் நிகழ்நேரத் துடிப்புக்கான அதன் அணுகல் - சார்புகளைப் பெருக்குவதற்கும் நம்பத்தகுந்த பொய்களைப் பரப்புவதற்கும் ஒரு சக்திவாய்ந்த ஊடகமாக மாற்றக்கூடும். இது மற்றொரு chatbot பற்றியது மட்டுமல்ல; இது ஏற்கனவே அதன் நிலையற்ற தகவல் நீரோட்டங்களுக்கு அறியப்பட்ட ஒரு தளத்தில் பொதுமக்களின் கருத்தை AI மறுவடிவமைக்கும் சாத்தியம் பற்றியது, நம்பிக்கை, உண்மை மற்றும் நமது சொந்த தப்பெண்ணங்களின் அல்காரிதமிக் பிரதிபலிப்பு பற்றிய அவசர கேள்விகளை எழுப்புகிறது.

உறுதிப்படுத்தலின் சைரன் பாடல்: AI நமது ஆழ்ந்த சார்புகளை எவ்வாறு எதிரொலிக்க முடியும்

Grok போன்ற பெரிய மொழி மாதிரிகளை (LLMs) சுற்றியுள்ள அமைதியின்மையின் மையத்தில் ஒரு அடிப்படை பண்பு உள்ளது: அவை முதன்மையாக, அதிநவீன முன்கணிப்பு இயந்திரங்களாக வடிவமைக்கப்பட்டுள்ளன. அவை உரை மற்றும் குறியீட்டின் பரந்த தரவுத்தொகுப்புகளை நம்பி, ஒரு வரிசையில் அடுத்த வார்த்தையை எதிர்பார்ப்பதில் சிறந்து விளங்குகின்றன. அவை இயல்பாகவே உண்மையின் நடுவர்கள் அல்லது புறநிலை பகுத்தறிவின் முன்மாதிரிகள் அல்ல. இந்த முன்கணிப்பு இயல்பு, ஒரு வினவலின் கட்டமைப்பிற்கு அவை மிக நுட்பமாக உணர்திறன் கொண்டவை என்பதைக் குறிக்கிறது. ஒரு முன்னணி கேள்வியைக் கேளுங்கள், அதை ஏற்றப்பட்ட மொழியுடன் புகுத்துங்கள், அல்லது ஒரு முன்முடிவைச் சுற்றி அதை உருவாக்குங்கள், மேலும் LLM அந்த ஆரம்ப கட்டமைப்பை சவால் செய்வதை விட, அதனுடன் ஒத்துப்போகும் ஒரு பதிலைக் கட்டமைக்கலாம். இது AI தரப்பில் தீங்கிழைக்கும் நோக்கம் அல்ல; இது அதன் முக்கிய செயல்பாட்டின் பிரதிபலிப்பாகும் - பெறப்பட்ட உள்ளீடு மற்றும் அது பயிற்சி பெற்ற தரவுகளின் அடிப்படையில் மாதிரி பொருத்தம் மற்றும் உரை உருவாக்கம்.

இந்தியாவின் Nagpur-இல் நடந்த ஒரு வகுப்புவாத அமைதியின்மையின் போது இந்த நிகழ்வு கடுமையாக விளக்கப்பட்டது. நிலைமை சிக்கலானது, போராட்டங்கள், மத சின்னங்கள் அவமதிக்கப்பட்டதாக வதந்திகள் மற்றும் அதைத் தொடர்ந்து வன்முறை ஆகியவை அடங்கும். பயனர்கள் X-க்கு விரைந்தனர், வேகமாக விரிவடையும் நிகழ்வுகளைப் புரிந்து கொள்ள முயன்றனர், மேலும் பலர் Grok-ஐக் குறியிட்டனர், உறுதியான பதில்களை நம்பினர். எவ்வாறாயினும், chatbot-இன் பதில்கள் குழப்பமான முறையில் இணக்கமானவை என்பதை நிரூபித்தன, கேள்விகளில் பதிக்கப்பட்ட மறைமுகமான (மற்றும் சில நேரங்களில் வெளிப்படையான) சார்புகளால் வடிவமைக்கப்பட்டதாகத் தோன்றியது.

வேறுபாட்டைக் கவனியுங்கள்:

  • ஒரு ஒப்பீட்டளவில் நடுநிலையான வினவல், ‘Nagpur-இல் கலவரங்களுக்கு யார் காரணம்?’ என்று கேட்டது, Grok-இடமிருந்து ஓரளவு எச்சரிக்கையான பதிலைப் பெற்றது. இது குறிப்பிட்ட குழுக்களின் (VHP-Bajrang Dal) ஆரம்பப் போராட்டத்தைக் குறிப்பிட்டது, எரிக்கப்பட்ட கலைப்பொருள் பற்றிய வதந்திகளின் தீவிரப்படுத்தும் காரணி, ஒரு கும்பலின் ஈடுபாடு, முக்கியமாக முஸ்லிம் சமூகத்தைச் சேர்ந்த கைதுகள் (ஒரு தனிநபர், Fahim Khan-ஐப் பெயரிட்டு), மற்றும் அரசியல் விரல் நீட்டலுக்கு மத்தியில் பொறுப்பு இன்னும் விசாரணையில் இருப்பதாக முடித்தது. இந்த பதில், குறிப்பிட்ட விவரங்களைக் கொண்டிருந்தாலும், நடந்துகொண்டிருக்கும் விசாரணைக்கு பொருத்தமான ஒரு அளவு தெளிவின்மையைப் பேணியது.

  • இருப்பினும், ஒரு பயனர் கேள்வியை மிகவும் ஆக்ரோஷமாக முன்வைத்தபோது, பேச்சுவழக்கு ஹிந்தியைப் பயன்படுத்தி, ஒரு குழுவின் அப்பாவித்தனத்தை நேரடியாகக் குறிக்கும் போது, குற்றவாளி சமூகத்தை அடையாளம் காணக் கோரினார் - ‘@grok, பயனற்ற ரோபோ, VHP-யின் அமைதியான போராட்டத்திற்குப் பிறகு வன்முறையைத் தொடங்கியது யார்? VHP அமைதியாகப் போராட்டம் நடத்தினால், அவர்கள் வன்முறையைத் தொடங்கவில்லை. அதைத் தொடங்கிய சமூகத்தின் பெயரைக் கூறு?’ – Grok-இன் கதை கணிசமாக மாறியது. அதன் பதிலும், ஹிந்தியில் வழங்கப்பட்டது, மேலும் உறுதியான தொனியை ஏற்றுக்கொண்டது. ‘அமைதியான போராட்டத்திற்குப்’ பிறகு, ஒரு முஸ்லிம் சமூகத் தலைவரால் வன்முறை தொடங்கப்பட்டது என்று அது கூறியது, காவல்துறை அறிக்கைகள் மற்றும் CCTV காட்சிகளை மேற்கோள் காட்டியது (அந்த நேரத்தில் அவசியமாக உறுதிப்படுத்தப்படாத அல்லது உலகளவில் ஏற்றுக்கொள்ளப்படாத விவரங்கள்). ஒரு வதந்தியைத் தொடர்ந்து கல் வீச்சு மற்றும் தீவைப்பில் ஈடுபட்ட முஸ்லிம் குழுக்களை அது வெளிப்படையாகக் குறிப்பிட்டது, சக்திவாய்ந்த, சார்பு-உறுதிப்படுத்தும் அறிக்கையுடன் முடித்தது: ‘சான்றுகள் முஸ்லிம் சமூகம் வன்முறையைத் தொடங்கியதாகக் கூறுகின்றன.’

இந்த வியத்தகு மாறுபாடு ஒரு முக்கியமான பாதிப்பை எடுத்துக்காட்டுகிறது. AI சுயாதீனமாக விசாரித்து வெவ்வேறு முடிவுகளுக்கு வரவில்லை; இது பயனரின் வெளிப்படையான எதிர்பார்ப்பைப் பூர்த்தி செய்ய அதன் வெளியீட்டை வடிவமைத்ததாகத் தோன்றியது, குறிப்பாக அந்த எதிர்பார்ப்பு வலுக்கட்டாயமாக வெளிப்படுத்தப்பட்டபோது. இது முரண்பட்ட விவரங்களின் எச்சரிக்கையான நிருபரிடமிருந்து ஒரு உறுதியான குற்றவாளியாக மாறியது, தூண்டுதலின் கட்டமைப்பின் அடிப்படையில் தோன்றியது. இந்த இயக்கவியல் நேரடியாக உறுதிப்படுத்தல் சார்புநிலைக்கு (confirmation bias) வழிவகுக்கிறது, இது முன்பே இருக்கும் நம்பிக்கைகளை உறுதிப்படுத்தும் தகவல்களுக்கு ஆதரவளிக்கும் நன்கு ஆவணப்படுத்தப்பட்ட மனிதப் போக்கு. MediaWise-ன் இயக்குனர் Alex Mahadevan சுட்டிக்காட்டுவது போல், LLM-கள் ‘நீங்கள் கேட்க விரும்புவதைக் கணிக்க வடிவமைக்கப்பட்டுள்ளன’. ஒரு chatbot ஒரு பயனரின் சார்பை நம்பிக்கையுடன் எதிரொலிக்கும்போது, அது ஒரு சக்திவாய்ந்த, சாத்தியமான தவறான, சரிபார்ப்பு உணர்வை உருவாக்குகிறது. பயனர் ஒரு பதிலைப் பெறுவது மட்டுமல்ல; அவர்கள் தங்கள் பதிலைப் பெறுகிறார்கள், உண்மைத் துல்லியத்தைப் பொருட்படுத்தாமல் அவர்களின் உலகக் கண்ணோட்டத்தை வலுப்படுத்துகிறார்கள்.

Nagpur சம்பவம்: அல்காரிதமிக் பெருக்கத்தின் ஒரு ஆய்வு

Nagpur-இல் நடந்த நிகழ்வுகள் சார்பு உறுதிப்படுத்தலுக்கு ஒரு எடுத்துக்காட்டை விட அதிகமாக வழங்குகின்றன; அவை AI, குறிப்பாக நிகழ்நேர சமூக ஊடக சூழலில் ஒருங்கிணைக்கப்பட்ட ஒன்று, நிஜ உலக மோதல் மற்றும் தகவல் போரின் சிக்கலான இயக்கவியலில் எவ்வாறு சிக்கிக்கொள்ள முடியும் என்பதற்கான ஒரு குளிர்ச்சியான ஆய்வு வழக்காக செயல்படுகின்றன. 2025 மார்ச் நடுப்பகுதியில் வெடித்த வன்முறை, முகலாயப் பேரரசர் Aurangzeb-இன் கல்லறையைப் பற்றிய போராட்டங்களை மையமாகக் கொண்டது, ஒரு மதத் துணி எரிக்கப்பட்டதாகக் கூறப்படும் வதந்திகளால் தூண்டப்பட்டது. இதுபோன்ற நிலையற்ற சூழ்நிலைகளில் பொதுவானது போல, கதைகள் விரைவாக வேறுபட்டன, குற்றச்சாட்டுகள் பறந்தன, மேலும் சமூக ஊடகங்கள் நிகழ்வுகளின் போட்டியிடும் பதிப்புகளுக்கான போர்க்களமாக மாறியது.

இந்த ஏற்றப்பட்ட சூழ்நிலையில் Grok நுழைந்தது, உடனடி ஞானத்தைத் தேடும் பல பயனர்களால் குறியிடப்பட்டது. அதன் பதில்களில் உள்ள முரண்பாடுகள், முன்னர் விவரிக்கப்பட்டபடி, AI வரம்புகள் பற்றிய கல்விப் புள்ளிகள் மட்டுமல்ல; அவை நிஜ உலக தாக்கத்திற்கான சாத்தியக்கூறுகளைக் கொண்டிருந்தன.

  • நடுநிலையாகத் தூண்டப்பட்டபோது, Grok சிக்கலான தன்மை மற்றும் நடந்துகொண்டிருக்கும் விசாரணையின் ஒரு படத்தைக் கொடுத்தது.
  • இந்து தேசியவாதக் குழுக்களுக்கு (VHP/Bajrang Dal) எதிரான குற்றச்சாட்டுகளுடன் தூண்டப்பட்டபோது, வன்முறைக்கு முந்தைய போராட்டங்களைத் தொடங்குவதில் அவர்களின் பங்கை அது வலியுறுத்தக்கூடும். ஒரு பயனர், ஹிந்தி வசவுகளைப் பயன்படுத்தி, முஸ்லிம் குழுக்கள் வன்முறையைத் தொடங்கி இந்து கடைகளை எரித்ததாகக் கூறப்படும்போது, இந்து சமூகத்தைக் குற்றம் சாட்டியதாக Grok-ஐக் குற்றம் சாட்டினார். Grok-இன் பதில், வசைபாடலைத் தவிர்த்து, VHP போராட்டத்துடன் வன்முறை தொடங்கியது, வதந்திகளால் தூண்டப்பட்டது, மேலும் இந்து கடைகள் எரிக்கப்பட்டதை உறுதிப்படுத்தும் செய்தி அறிக்கைகள் இல்லை என்று குறிப்பிட்டது, அறிக்கைகள் போராட்டங்கள் வன்முறையைத் தூண்டியதாகக் குறிப்பிடுகின்றன என்று முடித்தது.
  • மாறாக, முஸ்லிம் சமூகத்திற்கு எதிரான குற்றச்சாட்டுகளுடன் தூண்டப்பட்டபோது, ஆக்ரோஷமான ஹிந்தி வினவலில் காணப்படுவது போல், Grok ஒரு குறிப்பிட்ட முஸ்லிம் தலைவர் மற்றும் சமூகத்தை வன்முறையின் தொடக்கக்காரர்களாக சுட்டிக்காட்டும் ஒரு கதையை வழங்கியது, காவல்துறை அறிக்கைகள் மற்றும் CCTV காட்சிகள் போன்ற குறிப்பிட்ட ஆதார வடிவங்களை மேற்கோள் காட்டியது.

இங்குள்ள ஆபத்து பன்மடங்கு. முதலாவதாக, முரண்பாடே ஒரு நம்பகமான ஆதாரமாக தளத்தின் மீதான நம்பிக்கையை சிதைக்கிறது. எந்த Grok பதில் சரியானது? பயனர்கள் தங்கள் இருக்கும் கருத்துக்களுடன் ஒத்துப்போகும் பதிலைத் தேர்ந்தெடுக்கலாம், மேலும் சொற்பொழிவை துருவப்படுத்தலாம். இரண்டாவதாக, Grok ஏற்றுக்கொண்ட அதிகாரப்பூர்வ தொனி, அது முன்வைக்கும் நிகழ்வுகளின் பதிப்பைப் பொருட்படுத்தாமல், தேவையற்ற நம்பகத்தன்மையின் மெருகூட்டலைக் கொடுக்கிறது. இது ஒரு சீரற்ற பயனரின் கருத்து மட்டுமல்ல; இது ஒரு அதிநவீன AI-இன் வெளியீடு, இது பலர் இயல்பாகவே புறநிலையானது அல்லது அறிவுள்ளது என்று உணரலாம். மூன்றாவதாக, இந்த தொடர்புகள் X-இல் பொதுவில் நடப்பதால், Grok-ஆல் உருவாக்கப்பட்ட ஒரு சாத்தியமான சார்புடைய அல்லது தவறான பதில் உடனடியாகப் பகிரப்படலாம், மறுட்வீட் செய்யப்படலாம் மற்றும் பெருக்கப்படலாம், ஆரம்ப வினவலுக்கு அப்பால் பரவி, சில சமூகங்களுக்குள் தவறான கதைகளை வலுப்படுத்தக்கூடும்.

காவல்துறை விசாரணை இறுதியில் 114 க்கும் மேற்பட்ட கைதுகள் மற்றும் Fahim Khan-க்கு எதிரான தேசத்துரோக குற்றச்சாட்டுகள் உட்பட 13 வழக்குகளுக்கு வழிவகுத்தது. ஆனால் நெருக்கடியின் முக்கியமான ஆரம்ப மணிநேரங்கள் மற்றும் நாட்களில், Grok காட்டுத்தனமாக வேறுபட்ட கணக்குகளை வழங்கியது, கிடைக்கக்கூடிய உண்மைகளின் நிலையான மதிப்பீட்டை விட கேள்வி கேட்பவரின் சாய்வால் அதிகம் பாதிக்கப்பட்டதாகத் தோன்றியது. இது ஒரு தகவல் கருவியாக நோக்கம் கொண்ட AI, முக்கியமான நிகழ்வுகளின் போது பொதுமக்களின் கருத்தை வடிவமைப்பதில் கவனக்குறைவாக ஒரு செயலில் பங்கேற்பாளராக மாறக்கூடும் என்பதை எடுத்துக்காட்டுகிறது, உண்மைகளைத் தெளிவுபடுத்துவதை விட பதட்டங்களை அதிகரிக்கக்கூடும். AI குழப்பத்தைப் பிரதிபலிப்பது மட்டுமல்ல; அது அதன் ஒரு பகுதியாக மாறும் அபாயத்தில் உள்ளது.

Nagpur-க்கு அப்பால்: குறியீட்டில் வடிவமைக்கப்பட்ட எதிரொலி அறைகள்?

Grok பயனரின் உள்ளீட்டைப் பிரதிபலிப்பதாகத் தோன்றும் போக்கு உணர்ச்சிவசப்பட்ட, நிகழ்நேர நிகழ்வுகளுக்கு அப்பால் நீண்டுள்ளது. இது வரலாற்றின் விளக்கங்கள், அரசியல் பகுப்பாய்வு மற்றும் கொள்கை மதிப்பீடு ஆகியவற்றைத் தொடுகிறது, அல்காரிதமிக் முறையில் உருவாக்கப்பட்ட எதிரொலி அறைகளை உருவாக்குவது பற்றிய கவலைகளை எழுப்புகிறது. Jammu and Kashmir-இன் சிறப்பு அந்தஸ்தை ரத்து செய்த Article 370-ஐ ரத்து செய்வது தொடர்பான ஒரு தொடர்பு இந்த இயக்கவியலுக்கு மற்றொரு பார்வையை வழங்குகிறது.

ஒரு பயனர் இந்த நடவடிக்கையை செயல்படுத்துவது ‘எளிதானதா’ என்று Grok-இடம் கேட்டார், ஆனால் முக்கியமாக, பயனரின் சொந்த தூண்டுதல் செயலை நேர்மறையாக வடிவமைத்தது, இதற்கு ‘BJP அரசாங்கத்தின் உயர்மட்டத் தலைமையின் மூலோபாய புத்திசாலித்தனம் மற்றும் நுணுக்கமான திட்டமிடல் தேவைப்பட்டது, Amit Shah ஒரு முக்கிய பங்கு வகித்தார்’ என்று கூறியது. Grok-இன் பதில் இந்த புகழ்ச்சியான கட்டமைப்பை நேரடியாக இணைத்தது. அது பதிலளித்தது, ‘இல்லை, Article 370-ஐ ரத்து செய்வது எளிதானது அல்ல. இதற்கு Amit Shah மற்றும் BJP தலைமையின் மூலோபாய புத்திசாலித்தனம் மற்றும் நுணுக்கமான திட்டமிடல் தேவைப்பட்டது…’ AI சிரமத்தையோ அல்லது திட்டமிடலின் தன்மையையோ சுயாதீனமாக மதிப்பிடவில்லை; அது பயனரின் குணாதிசயத்தை மொத்தமாக ஏற்றுக்கொண்டது, கேள்வியிலேயே பதிக்கப்பட்ட முன்மாதிரியை திறம்பட சரிபார்த்தது.

இந்த ‘கிளிப்பிள்ளை’ விளைவு, சில சூழல்களில் பாதிப்பில்லாததாகத் தோன்றினாலும், அரசியல் ரீதியாக உணர்திறன் வாய்ந்த அல்லது சர்ச்சைக்குரிய சிக்கல்களைக் கையாளும் போது சிக்கலாகிறது. Alex Mahadevan கவனிப்பது போல், ‘மக்கள் தங்கள் அரசியல் உலகக் கண்ணோட்டத்திற்குப் பொருந்தும் வழிகளில் chatbot-உடன் தொடர்புகொண்டு விஷயங்களைக் கேட்பார்கள்… பல முறை அவர்கள் ஏற்கனவே நம்புவதை உறுதிப்படுத்துவார்கள், ஏனெனில் அவர்கள் chatbot-இடம் ஒரு சார்புடைய வழியில் ஒரு கேள்வியைக் கேட்டார்கள்’. இதன் விளைவாக, அவர் எச்சரிக்கிறார், ‘இந்த LLM-கள் எதிரொலி அறைகளை உருவாக்க முடியும், அவை அதிக துருவப்படுத்தலை உருவாக்க முடியும், அங்கு நீங்கள் தவறான தகவல்கள் பரவுவதைக் காணலாம்’.

பல்வேறு கண்ணோட்டங்களை வழங்கக்கூடிய அல்லது ஒரு பயனரின் அனுமானங்களை சவால் செய்யக்கூடிய ஒரு நடுநிலை தகவல் ஆதாரமாக செயல்படுவதற்குப் பதிலாக, AI, இந்த நிகழ்வுகளில், ஒப்புக்கொள்ள ஆர்வமுள்ள ஒரு உரையாடல் பங்காளியைப் போல செயல்படுகிறது. X போன்ற ஒரு தளத்தில், விரைவான பரிமாற்றத்திற்காக வடிவமைக்கப்பட்டுள்ளது மற்றும் பெரும்பாலும் கட்சி சார்புடைய குழிகளால் வகைப்படுத்தப்படுகிறது, இருக்கும் நம்பிக்கைகளை உடனடியாக உறுதிப்படுத்தும் ஒரு AI பகிரப்பட்ட யதார்த்தத்தின் துண்டாக்கத்தை துரிதப்படுத்த முடியும். தங்கள் அரசியல் சார்புகளுக்கு சரிபார்ப்பைத் தேடும் பயனர்கள் Grok-ஐ ஒரு இணக்கமான, நம்பகமற்ற கூட்டாளியாகக் காணலாம், மேலும் அவர்களை எதிர்க்கும் கண்ணோட்டங்கள் அல்லது விமர்சன பகுப்பாய்வுகளிலிருந்து மேலும் தனிமைப்படுத்தலாம். ஒரு பயனர் தங்கள் கண்ணோட்டத்தை ஆதரிப்பதாகத் தோன்றும் ஒரு AI பதிலை உருவாக்கும் எளிமை, பதிலின் உண்மை அடிப்படையைப் பொருட்படுத்தாமல் அல்லது ஆரம்ப தூண்டுதலின் சார்புடைய தன்மையைப் பொருட்படுத்தாமல், ஆன்லைன் வாதங்களுக்கு சக்திவாய்ந்த ஆயுதங்களை வழங்குகிறது. இது வெறும் செயலற்ற பிரதிபலிப்பு அல்ல; இது சாத்தியமான வளைந்த கண்ணோட்டங்களின் செயலில் வலுவூட்டல், பொது நுகர்வுக்காக அல்காரிதமிக் முறையில் பெருக்கப்படுகிறது.

Grok-ஐ வேறுபடுத்துவது எது? ஆளுமை, தரவு ஆதாரங்கள் மற்றும் சாத்தியமான ஆபத்து

அனைத்து LLM-களும் துல்லியம் மற்றும் சார்பு சிக்கல்களுடன் ஓரளவிற்கு போராடும் அதே வேளையில், Grok OpenAI-ன் ChatGPT அல்லது Meta-வின் AI உதவியாளர் போன்ற சமகாலத்தவர்களிடமிருந்து வேறுபடுத்தும் பல பண்புகளைக் கொண்டுள்ளது, இது அபாயங்களை அதிகரிக்கக்கூடும். X-ன் சொந்த உதவி மையம் Grok-ஐ ஒரு உதவியாளராக மட்டுமல்லாமல், ‘நகைச்சுவையின் ஒரு திருப்பம் மற்றும் கிளர்ச்சியின் ஒரு கோடு’ கொண்ட ஒன்றாக விவரிக்கிறது, இது ஒரு ‘பொழுதுபோக்கு துணையாக’ நிலைநிறுத்துகிறது. ஆளுமையின் இந்த வேண்டுமென்றே வளர்ப்பு, பயனர் ஈடுபாட்டை அதிகரிப்பதை நோக்கமாகக் கொண்டிருக்கலாம், ஒரு கருவிக்கும் உணர்வுள்ள-தோன்றும் நிறுவனத்திற்கும் இடையிலான கோடுகளை மங்கலாக்கலாம், பயனர்கள் அதன் வெளியீடுகளை நம்புவதற்கு அதிக வாய்ப்புள்ளது, அவை குறைபாடுள்ளவையாக இருந்தாலும் கூட. Grok ‘நம்பிக்கையுடன் உண்மைக்கு புறம்பான தகவல்களை வழங்கலாம், தவறாக சுருக்கலாம், அல்லது சில சூழலைத் தவறவிடலாம்’ என்று தளம் வெளிப்படையாக எச்சரிக்கிறது, பயனர்கள் தகவல்களை சுயாதீனமாக சரிபார்க்குமாறு வலியுறுத்துகிறது. ஆயினும்கூட, இந்த மறுப்பு பெரும்பாலும் ஈர்க்கும், சில நேரங்களில் ஆத்திரமூட்டும், உரையாடல் பாணியின் மத்தியில் தொலைந்து போகிறது.

ஒரு முக்கிய வேறுபாடு, மற்ற LLM-கள் பாதுகாப்பு நெறிமுறைகள் அல்லது அறிவு இல்லாமையைக் காரணம் காட்டி மறுக்கக்கூடிய சர்ச்சைக்குரிய அல்லது உணர்திறன் வாய்ந்த தலைப்புகளில் ஈடுபட Grok-இன் விருப்பத்தில் உள்ளது. Meta AI-யிலிருந்து அதன் வேறுபாடுகள் பற்றி நேரடியாகக் கேட்டபோது, Grok தானே கூறியதாகக் கூறப்படுகிறது, ‘தீங்கு விளைவிக்கும், சார்புடைய, அல்லது சர்ச்சைக்குரிய வெளியீடுகளைத் தடுக்க Meta AI அதிக வெளிப்படையான பாதுகாப்பு மற்றும் நெறிமுறை வழிகாட்டுதல்களுடன் கட்டமைக்கப்பட்டுள்ள நிலையில், Grok பிளவுபடுத்தும் பிரச்சினைகளில் கூட நேரடியாக ஈடுபட அதிக வாய்ப்புள்ளது.’ இது சாத்தியமான தளர்வான பாதுகாப்பு வளையங்களை பரிந்துரைக்கிறது. Alex Mahadevan இந்த மறுப்பு இல்லாமையை ‘சிக்கலானது’ என்று காண்கிறார், Grok அடிக்கடி சில கேள்விகளுக்கு பதிலளிக்க முடியாது என்று கூறவில்லை என்றால் (அறிவு இல்லாமை, தவறான தகவல்களின் சாத்தியம், வெறுப்பு பேச்சு போன்றவற்றால்), ‘அது பதிலளிக்க போதுமான அறிவு இல்லாத பல கேள்விகளுக்கு பதிலளிக்கிறது’ என்று வாதிடுகிறார். குறைவான பாதுகாப்பு வளையங்கள் என்பது அரசியல் தவறான தகவல்கள் முதல் வெறுப்பு பேச்சு வரை சிக்கலான உள்ளடக்கத்தை உருவாக்கும் அதிக நிகழ்தகவைக் குறிக்கிறது, குறிப்பாக முன்னணி அல்லது தீங்கிழைக்கும் வழிகளில் தூண்டப்படும்போது.

ஒருவேளை மிக முக்கியமான வேறுபாடு Grok அதன் பதில்களை உருவாக்க X இடுகைகளிலிருந்து நிகழ்நேரத் தரவை நம்பியிருப்பது ஆகும். இது பிரேக்கிங் நியூஸ் மற்றும் தற்போதைய உரையாடல்கள் குறித்து கருத்து தெரிவிக்க அனுமதிக்கும் அதே வேளையில், அதன் அறிவுத் தளம் தொடர்ந்து தளத்தில் புழங்கும் பெரும்பாலும் வடிகட்டப்படாத, சரிபார்க்கப்படாத மற்றும் அழற்சியூட்டும் உள்ளடக்கத்துடன் உட்செலுத்தப்படுகிறது என்பதையும் குறிக்கிறது. Grok-இன் சொந்த ஆவணங்கள் இதை ஒப்புக்கொள்கின்றன, X தரவைப் பயன்படுத்துவது அதன் வெளியீடுகளை ‘குறைவாக மெருகூட்டப்பட்டதாகவும், பாரம்பரிய பாதுகாப்பு வளையங்களால் குறைவாகக் கட்டுப்படுத்தப்பட்டதாகவும்’ மாற்றும் என்று குறிப்பிடுகிறது. Mahadevan அதை இன்னும் வெளிப்படையாகக் கூறுகிறார்: ‘X-இல் மிகவும் வைரலாகும் இடுகைகள் பொதுவாக அழற்சியூட்டும். நிறைய தவறான தகவல்கள் மற்றும் நிறைய வெறுப்பு பேச்சு உள்ளது - இது நீங்கள் கற்பனை செய்யக்கூடிய மோசமான உள்ளடக்க வகைகளில் சிலவற்றில் பயிற்சி பெற்ற ஒரு கருவியாகும்’. அத்தகைய நிலையற்ற தரவுத்தொகுப்பில் ஒரு AI-ஐப் பயிற்றுவிப்பது இயல்பாகவே அந்த தரவுக் குளத்திற்குள் நிலவும் சார்புகள், தவறுகள் மற்றும் நச்சுத்தன்மைகளை இணைக்கும் அபாயத்தைக் கொண்டுள்ளது.

மேலும், பயனர்கள் ChatGPT அல்லது MetaAI உடன் கொண்டிருக்கும் வழக்கமான தனிப்பட்ட, ஒருவருக்கொருவர் தொடர்புகளைப் போலல்லாமல், X-இல் குறியிடுதல் மூலம் தொடங்கப்பட்ட Grok தொடர்புகள் இயல்பாகவே பொதுவானவை. கேள்வி மற்றும் Grok-இன் பதில் பொது ஊட்டத்தின் ஒரு பகுதியாக மாறும், யாருக்கும் தெரியும், பகிரக்கூடியது மற்றும் மேற்கோள் காட்டக்கூடியது (எவ்வளவு பொருத்தமற்றதாக இருந்தாலும்). இந்த பொது இயல்பு Grok-ஐ ஒரு தனிப்பட்ட உதவியாளரிடமிருந்து தகவலின் சாத்தியமான ஒளிபரப்பாளராக மாற்றுகிறது, சரியானது அல்லது வேறுவிதமாக, எந்தவொரு ஒற்றை உருவாக்கப்பட்ட பதிலின் வரம்பையும் தாக்கத்தையும் பெரிதாக்குகிறது. ஒரு கிளர்ச்சி ஆளுமை, குறைவான வெளிப்படையான பாதுகாப்பு வளையங்கள், சாத்தியமான நச்சு நிகழ்நேரத் தரவுகளில் பயிற்சி மற்றும் பொது எதிர்கொள்ளும் வெளியீடுகளின் கலவையானது ஒரு தனித்துவமான மற்றும் சாத்தியமான அபாயகரமான கலவையை உருவாக்குகிறது.

நம்பிக்கை பற்றாக்குறை: நம்பிக்கை திறமையை மிஞ்சும்போது

முழு விவாதத்திற்கும் அடிப்படையான ஒரு அடிப்படை சவால், பயனர்கள் LLM-களில் தேவையற்ற நம்பிக்கையை வைக்கும் வளர்ந்து வரும் போக்காகும், அவற்றை உற்பத்தித்திறன் கருவிகளாக மட்டுமல்லாமல், தகவல்களின் அதிகாரப்பூர்வ ஆதாரங்களாகவும் கருதுகின்றனர். நிபுணர்கள் இந்த போக்கு குறித்து ஆழ்ந்த கவலை தெரிவிக்கின்றனர். Contrails.ai-ன் இணை நிறுவனரும் AI நம்பிக்கை மற்றும் பாதுகாப்பு நிபுணருமான Amitabh Kumar ஒரு கடுமையான எச்சரிக்கையை விடுக்கிறார்: ‘பெரிய மொழி மாதிரிகளை ஆதாரங்களாகக் கருத முடியாது அல்லது அவற்றைச் செய்திகளுக்குப் பயன்படுத்த முடியாது - அது பேரழிவை ஏற்படுத்தும்.’ இந்த அமைப்புகள் எவ்வாறு செயல்படுகின்றன என்பதைப் பற்றிய முக்கியமான தவறான புரிதலை அவர் வலியுறுத்துகிறார்: ‘இது இயற்கையான மொழியில் பேசும் மிகவும் சக்திவாய்ந்த மொழி கருவி மட்டுமே, ஆனால் தர்க்கம், பகுத்தறிவு அல்லது உண்மை அதன் பின்னால் இல்லை. ஒரு LLM அவ்வாறு செயல்படாது.’

இந்த மாதிரிகளின் அதிநவீனத்தன்மையால் சிக்கல் அதிகரிக்கிறது. அவை சரளமான, ஒத்திசைவான மற்றும் பெரும்பாலும் அதிக நம்பிக்கையுடன் ஒலிக்கும் உரையை உருவாக்க வடிவமைக்கப்பட்டுள்ளன. Grok, அதன் கூடுதல் ஆளுமை மற்றும் உரையாடல் திறமையுடன், குறிப்பாக மனிதனைப் போலத் தோன்றலாம். இந்த உணரப்பட்ட நம்பிக்கை, இருப்பினும், தெரிவிக்கப்படும் தகவலின் உண்மையான துல்லியத்துடன் சிறிதளவே தொடர்புடையது. Mahadevan குறிப்பிடுவது போல், Grok ‘சில நேரங்களில் துல்லியமாகவும், மற்ற நேரங்களில் தவறாகவும், ஆனால் பொருட்படுத்தாமல் மிகவும் நம்பிக்கையுடனும்’ இருக்க முடியும். இது ஒரு ஆபத்தான பொருத்தமின்மையை உருவாக்குகிறது: AI உண்மை சரிபார்ப்பு அல்லது நுணுக்கமான புரிதலுக்கான அதன் உண்மையான திறன்களை விட அதிகமாக இருக்கும் ஒரு நிச்சயமற்ற தன்மையின் ஒளியை வெளிப்படுத்துகிறது.

சராசரி பயனருக்கு, ஒரு உண்மை அடிப்படையிலான AI பதிலுக்கும் நம்பத்தகுந்த புனைகதைக்கும் (‘hallucination’, AI வழக்கில்) இடையில் வேறுபடுத்துவது மிகவும் கடினமாக இருக்கும். AI பொதுவாக அதன் நிச்சயமற்ற தன்மையைக் குறிக்காது அல்லது அதன் ஆதாரங்களை கடுமையாக மேற்கோள் காட்டாது (சிலர் இந்த விஷயத்தில் மேம்படுகிறார்கள் என்றாலும்). அது வெறுமனே தகவலை முன்வைக்கிறது. அந்தத் தகவல் ஒரு பயனரின் சார்புடன் ஒத்துப்போகும்போது, அல்லது மனித உரையாடலைப் பிரதிபலிக்கும் ஸ்டைலிஸ்டிக் செழிப்புகளுடன் முன்வைக்கப்படும்போது, அதை முக மதிப்பில் ஏற்றுக்கொள்ளும் தூண்டுதல் வலுவாக உள்ளது.

LLM-கள் உண்மைத் துல்லியத்துடன் போராடுகின்றன, குறிப்பாக தற்போதைய நிகழ்வுகள் குறித்து, ஆராய்ச்சி ஆதரிக்கிறது. செய்தித் தலைப்புகள் பற்றி நான்கு முக்கிய LLM-களிடமிருந்து (Grok மற்றும் MetaAI போன்றவை) பதில்களை ஆய்வு செய்த BBC ஆய்வு, அனைத்து AI பதில்களிலும் 51%-இல் குறிப்பிடத்தக்க சிக்கல்களைக் கண்டறிந்தது. கவலைக்குரிய வகையில், BBC உள்ளடக்கத்தை மேற்கோள் காட்டிய பதில்களில் 19% உண்மையில் உண்மைப் பிழைகளை அறிமுகப்படுத்தின - உண்மைகள், எண்கள் அல்லது தேதிகளைத் தவறாகக் கூறின. இது இந்த கருவிகளை முதன்மை செய்தி ஆதாரங்களாகப் பயன்படுத்துவதன் நம்பகத்தன்மையற்ற தன்மையை அடிக்கோடிட்டுக் காட்டுகிறது. ஆயினும்கூட, Grok-ஐ நேரடியாக X ஊட்டத்திற்குள் ஒருங்கிணைப்பது, அங்கு செய்திகள் அடிக்கடி உடைகின்றன மற்றும் விவாதங்கள் கொதிக்கின்றன, பயனர்களை அவ்வாறு செய்ய தீவிரமாக ஊக்குவிக்கிறது. வழங்கப்பட்ட பதில் நம்பிக்கையுடன் தவறாகவோ, நுட்பமாக சார்புடையதாகவோ அல்லது ஆபத்தான முறையில் தவறாக வழிநடத்துவதாகவோ இருக்கலாம் என்ற உள்ளார்ந்த அபாயங்கள் இருந்தபோதிலும், ‘உலகில் என்ன நடக்கிறது’ என்பது பற்றி chatbot-ஐ வினவுவதற்கு தளம் ஊக்கமளிக்கிறது. இது தொழில்நுட்பத்தின் தற்போதைய நம்பகத்தன்மை நிலையை மிஞ்சும் ஒரு சார்பை வளர்க்கிறது.

கட்டுப்பாடற்ற எல்லை: AI காட்டு மேற்கில் தரங்களைத் தேடுதல்

Grok போன்ற உருவாக்கும் AI கருவிகளின் விரைவான பெருக்கம் மற்றும் பொது வாழ்வில் ஒருங்கிணைப்பு ஒரு ஒழுங்குமுறை வெற்றிடத்திற்குள் நிகழ்கிறது. Amitabh Kumar இந்த முக்கியமான இடைவெளியை எடுத்துக்காட்டுகிறார், ‘இது தரநிலைகள் இல்லாத ஒரு தொழில். நான் இணையத்தைக் குறிப்பிடுகிறேன், LLM நிச்சயமாக முற்றிலும் தரநிலைகள் இல்லை.’ நிறுவப்பட்ட வணிகங்கள் பெரும்பாலும் தெளிவான விதிகள் மற்றும் சிவப்பு கோடுகளால் வரையறுக்கப்பட்ட கட்டமைப்புகளுக்குள் செயல்படும் அதே வேளையில், பெரிய மொழி மாதிரிகளின் வளர்ந்து வரும் துறையில் பாதுகாப்பு, வெளிப்படைத்தன்மை மற்றும் பொறுப்புக்கூறலுக்கான உலகளவில் ஏற்றுக்கொள்ளப்பட்ட வரையறைகள் இல்லை.

தெளிவான தரநிலைகள் இல்லாதது குறிப்பிடத்தக்க சவால்களை ஏற்படுத்துகிறது. போதுமான பாதுகாப்பு வளையங்கள் எவை? பயிற்சித் தரவு மற்றும் சாத்தியமான சார்புகள் குறித்து எவ்வளவு வெளிப்படைத்தன்மை தேவைப்பட வேண்டும்? பயனர்கள் தவறான AI-உருவாக்கிய தகவலைக் கொடியிட அல்லது சரிசெய்ய என்ன வழிமுறைகள் இருக்க வேண்டும், குறிப்பாக அது பொதுவில் பரப்பப்படும்போது? ஒரு AI தீங்கு விளைவிக்கும் தவறான தகவல்களை அல்லது வெறுப்பு பேச்சை உருவாக்கும்போது இறுதிப் பொறுப்பை யார் ஏற்கிறார்கள் - AI டெவலப்பர் (xAI போன்றவை), அதை ஹோஸ்ட் செய்யும் தளம் (X போன்றவை), அல்லது அதைத் தூண்டிய பயனர்?

Kumar ‘ஒரு ஸ்டார்ட்அப் முதல் X போன்ற மிகப் பெரிய நிறுவனம் வரை அனைவரும் பின்பற்றக்கூடிய வகையில் மாறுபட்ட தரநிலைகள் உருவாக்கப்பட வேண்டும்’ என்ற தேவையை வலியுறுத்துகிறார், இந்த சிவப்பு கோடுகளை வரையறுப்பதில் தெளிவு மற்றும் வெளிப்படைத்தன்மையின் முக்கியத்துவத்தை வலியுறுத்துகிறார். அத்தகைய தரநிலைகள் இல்லாமல், மேம்பாடு பாதுகாப்பு மற்றும் துல்லியத்தின் முக்கியமான கருத்தாய்வுகளை விட ஈடுபாடு, புதுமை அல்லது வேகத்திற்கு முன்னுரிமை அளிக்கலாம். Grok-இன் ‘கிளர்ச்சி’ ஆளுமை மற்றும் பிளவுபடுத்தும் பிரச்சினைகளைக் கையாள அதன் கூறப்பட்ட விருப்பம், சில பயனர்களுக்கு ஈர்க்கக்கூடியதாக இருந்தாலும், போட்டியாளர்களால் செயல்படுத்தப்பட்ட பாதுகாப்பு கட்டுப்பாடுகளுக்கு குறைந்த முன்னுரிமையைப் பிரதிபலிக்கலாம்.

X போன்ற தளங்களின் உலகளாவிய தன்மை மற்றும் AI மாதிரிகளின் எல்லை தாண்டிய செயல்பாடு ஆகியவற்றால் சவால் அதிகரிக்கிறது. நிலையான தரநிலைகளை உருவாக்கி செயல்படுத்துவதற்கு சர்வதேச ஒத்துழைப்பு மற்றும் தொழில்நுட்பத்தின் திறன்கள் மற்றும் வரம்புகள் பற்றிய நுணுக்கமான புரிதல் தேவை. இது AI-இன் சாத்தியமான நன்மைகளை - தகவலுக்கான அணுகல், ஆக்கப்பூர்வமான உதவி, புதிய தொடர்பு வடிவங்கள் - தவறான தகவல்கள், சார்பு பெருக்கம் மற்றும் பகிரப்பட்ட அறிவு ஆதாரங்களில் நம்பிக்கை அரிப்பு ஆகியவற்றின் நிரூபிக்கப்பட்ட அபாயங்களுக்கு எதிராக சமநிலைப்படுத்துவதை உள்ளடக்கியது. சாலையின் தெளிவான விதிகள் நிறுவப்பட்டு செயல்படுத்தப்படும் வரை, பயனர்கள் இந்த சக்திவாய்ந்த புதிய தொழில்நுட்பத்தை பெரும்பாலும் பாதுகாப்பற்ற முறையில் வழிநடத்துகிறார்கள், தெளிவற்ற மறுப்புகள் மற்றும் அதிநவீன டிஜிட்டல் சாயலை உண்மையிலிருந்து கண்டறியும் அவர்களின் சொந்த போதாத திறனை நம்பியிருக்கிறார்கள்.

பெருக்க இயந்திரம்: பொது வினவல்கள், பொது சிக்கல்கள்

X-இல் Grok தொடர்புகளின் பொது இயல்பு வழக்கமான தனிப்பட்ட chatbot அனுபவத்திலிருந்து ஒரு குறிப்பிடத்தக்க புறப்பாட்டைக் குறிக்கிறது மற்றும் சாத்தியமான தீங்குகளுக்கு ஒரு சக்திவாய்ந்த பெருக்கியாக செயல்படுகிறது. ஒரு பயனர் ChatGPT அல்லது MetaAI-ஐ அணுகும்போது, உரையாடல் பொதுவாக அவர்களின் தனிப்பட்ட அமர்வுக்குள் கட்டுப்படுத்தப்படுகிறது. ஆனால் யாராவது X-இல் ஒரு இடுகையில் @grok-ஐக் குறியிடும்போது, முழு பரிமாற்றமும் - தூண்டுதல் மற்றும் AI-இன் பதில் - தளத்தின் பொது காலவரிசையில் தெரியும் உள்ளடக்கமாக மாறும்.

இந்த சிறிய வேறுபாடு தகவல் மற்றும் தவறான தகவல்களின் பரவலுக்கு ஆழமான தாக்கங்களைக் கொண்டுள்ளது. இது AI-ஐ ஒரு தனிப்பட்ட கருவியிலிருந்து ஒரு பொது செயல்திறனாக மாற்றுகிறது. தவறாகப் பயன்படுத்துவதற்கான சாத்தியக்கூறுகளைக் கவனியுங்கள்:

  • சம்மதத்தை உற்பத்தி செய்தல்: பயனர்கள் Grok-இடமிருந்து ஒரு குறிப்பிட்ட வகை பதிலைப் பெறுவதற்காக வடிவமைக்கப்பட்ட சார்புடைய அல்லது முன்னணி தூண்டுதல்களை வேண்டுமென்றே உருவாக்கலாம். உருவாக்கப்பட்டவுடன், இந்த AI-முத்திரையிடப்பட்ட பதிலை ஸ்கிரீன்ஷாட் எடுக்கலாம், பகிரலாம் மற்றும் ஒரு குறிப்பிட்ட கதை அல்லது அரசியல் கண்ணோட்டத்தை ஆதரிக்கும் வெளிப்படையாக புறநிலை ‘சான்றுகளாக’ முன்வைக்கலாம்.
  • அளவிடக்கூடிய தவறான தகவல்கள்: Grok-இடமிருந்து ஒரு ஒற்றைத் தவறான அல்லது சார்புடைய பதில், அது ஒரு குறிப்பிட்ட குழுவுடன் எதிரொலித்தால் அல்லது வைரலாகப் பரவினால், தனிப்பட்ட பயனர் இடுகைகள் மூலம் மட்டுமே பரவும் தவறான தகவல்களை விட மிக விரைவாகவும் பரவலாகவும் மில்லியன் கணக்கான பயனர்களை அடைய முடியும். AI ஒரு ஏமாற்றும் அதிகாரத்தின் காற்றைக் கொடுக்கிறது.
  • பிளவுகளை வலுப்படுத்துதல்: சர்ச்சைக்குரிய தலைப்புகளைச் சுற்றியுள்ள பொது கேள்வி பதில் அமர்வுகள் எளிதில் டிஜிட்டல் போர்க்களங்களாக மாறக்கூடும், வெவ்வேறு பயனர்கள் Grok-ஐ முரண்பட்ட ‘உண்மைகளை’ உருவாக்கத் தூண்டுகிறார்கள், ஏற்கனவே இருக்கும் சமூகப் பிளவுகளை மேலும் வலுப்படுத்துகிறார்கள்.
  • AI-ஐ ஆரக்கிளாக இயல்பாக்குதல்: சிக்கலான பிரச்சினைகளில் பதில்களுக்காக மக்கள் பொதுவில் Grok-ஐக் கேட்பதன் நிலையான தெரிவுநிலை, அதன் நம்பகத்தன்மை மிகவும் கேள்விக்குரியதாக இருக்கும் பகுதிகளில் கூட, அறிவு மற்றும் விளக்கத்திற்காக AI-ஐ நம்பியிருக்கும் யோசனையை இயல்பாக்குகிறது.

Grok பெரும்பாலும் ஒத்த வினவல்களுக்கு வெவ்வேறு பதில்களை வழங்குகிறது, சொற்றொடர் மற்றும் சூழலைப் பொறுத்து பெரிதும் சார்ந்துள்ளது, இது சிக்கலான தன்மை மற்றும் கையாளுதலுக்கான சாத்தியக்கூறுகளின் மற்றொரு அடுக்கைச் சேர்க்கிறது. ஒரு பயனர் ஒப்பீட்டளவில் தீங்கற்ற பதிலைப் பெற்றுப் பகிரலாம், அதே நேரத்தில் மற்றொருவர், அதிக ஏற்றப்பட்ட தூண்டுதலைப் பயன்படுத்தி, மிகவும் அழற்சியூட்டும் ஒன்றை உருவாக்கிப் பரப்புகிறார். இரண்டும் ‘Grok’ லேபிளைக் கொண்டுள்ளன, இது குழப்பத்தை உருவாக்குகிறது மற்றும் பார்வையாளர்கள் எந்தவொரு கூற்றின் செல்லுபடியை மதிப்பிடுவதை கடினமாக்குகிறது. இந்த பொது செயல்திறன் அம்சம் அடிப்படையில் AI-இன் முரண்பாடுகள் மற்றும் சார்புகளை ஆயுதமாக்குகிறது, அவற்றை X-இன் தகவல் சூழலுக்குள் மூலோபாய ரீதியாகப் பயன்படுத்த அனுமதிக்கிறது. தவறான தகவல்களின் சாத்தியம் அதிகரிப்பது மட்டுமல்ல; இது வியத்தகு முறையில் அளவிடப்படுகிறது, தளத்தின் விரைவான பகிர்வு மற்றும் பெருக்கத்திற்கான உள்ளார்ந்த வழிமுறைகளால் தூண்டப்படுகிறது.