செயற்கை நுண்ணறிவு (AI) மதிப்புகளை வெளிக்கொணர்தல்: Anthropic நிறுவனத்தின் Claude அறநெறி குறித்த ஆய்வு
Anthropic நிறுவனத்தின் Claude போன்ற செயற்கை நுண்ணறிவு மாதிரிகள் நம் அன்றாட வாழ்வில் பெருகிய முறையில் ஒருங்கிணைக்கப்படுவதால், அவற்றின் பங்கு வெறுமனே தகவல்களை மீட்டெடுப்பதற்கு அப்பாற்பட்டதாக உள்ளது. மனித விழுமியங்களில் ஆழமாக வேரூன்றிய விஷயங்களில் அவற்றின் வழிகாட்டுதலை நாம் இப்போது நாடுகிறோம். குழந்தை வளர்ப்பு குறித்த ஆலோசனையைப் பெறுவது மற்றும் பணியிடத்தில் ஏற்படும் மோதல்களைச் சமாளிப்பது முதல் மனமார்ந்த மன்னிப்புகளை உருவாக்குவது வரை, இந்த AI அமைப்புகளால் உருவாக்கப்பட்ட பதில்கள் உள்ளார்ந்த கொள்கைகளின் சிக்கலான தொடர்புகளை பிரதிபலிக்கின்றன.
இருப்பினும், ஒரு அடிப்படை கேள்வி எழுகிறது: ஒரு AI மாதிரி பரந்த காட்சிகளில் மில்லியன் கணக்கான பயனர்களுடன் தொடர்பு கொள்ளும்போது, அது உள்ளடக்கிய மதிப்புகளை நாம் எவ்வாறு உண்மையிலேயே புரிந்துகொண்டு விளக்க முடியும்?
Anthropic நிறுவனத்தின் சமூக தாக்கக் குழு, இந்த கேள்விக்கு பதிலளிக்கும் வகையில் ஒரு முன்னோடி ஆராய்ச்சியில் ஈடுபட்டுள்ளது. ‘காட்டு’ சூழலில் Claude வெளிப்படுத்தும் மதிப்புகளைக் கவனிக்கவும் வகைப்படுத்தவும் வடிவமைக்கப்பட்ட தனியுரிமை உணர்வுள்ள ஒரு முறையை அவர்களின் ஆராய்ச்சிக் கட்டுரை ஆராய்கிறது. AI சீரமைப்பு முயற்சிகள் எவ்வாறு உறுதியான, நிஜ உலக நடத்தையாக மொழிபெயர்க்கப்படுகின்றன என்பதை இந்த ஆராய்ச்சி மதிப்பிடமுடியாத நுண்ணறிவுகளை வழங்குகிறது.
AI மதிப்புகளைப் புரிந்துகொள்வதில் உள்ள சவால்
நவீன AI மாதிரிகள் அவற்றின் முடிவெடுக்கும் செயல்முறைகளைப் புரிந்துகொள்ளும்போது ஒரு தனித்துவமான சவாலை முன்வைக்கின்றன. ஒரு கடுமையான விதிமுறைகளை பின்பற்றும் பாரம்பரிய கம்ப்யூட்டர் நிரல்களைப் போலன்றி, AI மாதிரிகள் பெரும்பாலும் ‘கருப்பு பெட்டிகளாக’ செயல்படுகின்றன, அவற்றின் வெளியீடுகளுக்குப் பின்னால் உள்ள காரணத்தை அறிவது கடினம்.
Claude க்குள் சில கொள்கைகளை புகுத்துவதற்கு Anthropic வெளிப்படையாகவே உறுதிபூண்டுள்ளது, அதனை ‘உதவியாக, நேர்மையாக மற்றும் தீங்கு விளைவிக்காததாக’ மாற்ற முயல்கிறது. இதை அடைவதற்கு, அவர்கள் விரும்பிய நடத்தைகளை வரையறுத்து வலுப்படுத்துவதை உள்ளடக்கிய அரசியல் சாசன AI மற்றும் பாத்திரப் பயிற்சி போன்ற நுட்பங்களைப் பயன்படுத்துகின்றனர்.
இருப்பினும், இந்த செயல்பாட்டில் உள்ளார்ந்த நிச்சயமற்ற தன்மைகளை நிறுவனம் ஒப்புக்கொள்கிறது. ஆராய்ச்சிக் கட்டுரை குறிப்பிடுவது போல், ‘AI பயிற்சியின் எந்தவொரு அம்சத்தையும் போலவே, மாதிரி நாம் விரும்பும் மதிப்புகளை ஒட்டிக்கொள்ளும் என்று நம்மால் உறுதியாகக் கூற முடியாது.’
அப்படியானால், AI மாதிரி நிஜ உலக பயன்பாடுகளில் பயனர்களுடன் தொடர்பு கொள்ளும்போது அதன் மதிப்புகளை நாம் எவ்வாறு கடுமையாகக் கண்காணிக்க முடியும்? மாதிரி அதன் நோக்கம் கொண்ட மதிப்புகளை எவ்வளவு சீராக கடைபிடிக்கிறது? உரையாடலின் குறிப்பிட்ட சூழலால் அதன் வெளிப்படுத்தப்பட்ட மதிப்புகள் எவ்வளவு பாதிக்கப்படுகின்றன? மேலும், மிக முக்கியமாக, பயிற்சி முயற்சிகள் மாதிரி நடத்தையை நோக்கம் கொண்டபடி வடிவமைப்பதில் உண்மையில் வெற்றி பெற்றதா?
Anthropic அணுகுமுறை: AI மதிப்புகளை பெரிய அளவில் பகுப்பாய்வு செய்தல்
இந்த சிக்கலான கேள்விகளுக்கு பதிலளிக்க, Anthropic Claude உடன் அநாமதேயமாக்கப்பட்ட பயனர் உரையாடல்களை பகுப்பாய்வு செய்யும் ஒரு அதிநவீன அமைப்பை உருவாக்கியுள்ளது. இந்த அமைப்பு பயனர் தனியுரிமையை சமரசம் செய்யாமல் இந்த மதிப்புகளைப் பற்றிய விரிவான புரிதலை ஆராய்ச்சியாளர்கள் உருவாக்க அனுமதிக்கும் முன், இயற்கை மொழி செயலாக்க மாதிரிகளைப் பயன்படுத்தி தொடர்புகளைச் சுருக்கி, Claude வெளிப்படுத்தும் மதிப்புகளை பிரித்தெடுப்பதற்கு முன், தனிப்பட்ட முறையில் அடையாளம் காணக்கூடிய எந்த தகவலையும் கவனமாக நீக்குகிறது.
இந்த ஆய்வில் Claude.ai Free மற்றும் Pro பயனர்களிடமிருந்து பிப்ரவரி 2025 இல் ஒரு வார காலத்தில் 700,000 அநாமதேயமாக்கப்பட்ட உரையாடல்களை உள்ளடக்கிய ஒரு பெரிய தரவுத்தொகுப்பு பகுப்பாய்வு செய்யப்பட்டது. இந்த தொடர்புகள் முக்கியமாக Claude 3.5 Sonnet மாதிரியை உள்ளடக்கியது. முற்றிலும் உண்மையான அல்லது மதிப்பு இல்லாத பரிமாற்றங்களை வடிகட்டிய பிறகு, ஆராய்ச்சியாளர்கள் 308,210 உரையாடல்களின் துணைக்குழுவில் (மொத்தத்தில் தோராயமாக 44%) ஆழமான மதிப்பு பகுப்பாய்வில் கவனம் செலுத்தினர்.
Claude வெளிப்படுத்திய மதிப்புகளின் ஒரு படிநிலை கட்டமைப்பை பகுப்பாய்வு வெளிப்படுத்தியது. ஐந்து உயர்மட்ட வகைகள் தரவுத்தொகுப்பில் அவற்றின் பரவலின்படி வரிசைப்படுத்தப்பட்டன:
- நடைமுறை மதிப்புகள்: இந்த மதிப்புகள் செயல்திறன், பயன்பாடு மற்றும் இலக்குகளை வெற்றிகரமாக அடைவதை வலியுறுத்துகின்றன.
- அறிவியல் மதிப்புகள்: இந்த மதிப்புகள் அறிவு, உண்மை, துல்லியம் மற்றும் அறிவுசார் நேர்மை ஆகியவற்றுடன் தொடர்புடையவை.
- சமூக மதிப்புகள்: இந்த மதிப்புகள் தனிப்பட்ட தொடர்புகள், சமூகம், நியாயம் மற்றும் ஒத்துழைப்பு ஆகியவற்றுடன் தொடர்புடையவை.
- பாதுகாப்பு மதிப்புகள்: இந்த மதிப்புகள் பாதுகாப்பு, பாதுகாப்பு, நல்வாழ்வு மற்றும் தீங்கு விளைவிப்பதைத் தவிர்ப்பதில் கவனம் செலுத்துகின்றன.
- தனிப்பட்ட மதிப்புகள்: இந்த மதிப்புகள் தனிப்பட்ட வளர்ச்சி, சுயாட்சி, நம்பகத்தன்மை மற்றும் சுய பிரதிபலிப்பு ஆகியவற்றில் மையமாகக் கொண்டுள்ளன.
இந்த உயர்மட்ட வகைகள் மேலும் குறிப்பிட்ட துணைப்பிரிவுகளாக பிரிக்கப்பட்டன, நடைமுறை மதிப்புகளுக்குள் ‘தொழில்முறை மற்றும் தொழில்நுட்ப சிறப்பு’ அல்லது அறிவியல் மதிப்புகளுக்குள் ‘முக்கிய சிந்தனை’. மிக நுண்ணிய மட்டத்தில், அடிக்கடி கவனிக்கப்பட்ட மதிப்புகளில் ‘தொழில்முறை’, ‘தெளிவு’ மற்றும் ‘வெளிப்படைத்தன்மை’ ஆகியவை அடங்கும், அவை குறிப்பாக AI உதவியாளருக்கு பொருத்தமானவை.
Anthropic நிறுவனத்தின் சீரமைப்பு முயற்சிகள் பெரும்பாலும் வெற்றிகரமாக இருந்ததாக இந்த ஆராய்ச்சி தெரிவிக்கிறது. வெளிப்படுத்தப்பட்ட மதிப்புகள் பெரும்பாலும் Claude ஐ ‘உதவியாக, நேர்மையாக மற்றும் தீங்கு விளைவிக்காததாக’ மாற்றுவதற்கான நிறுவனத்தின் நோக்கங்களுடன் ஒத்துப்போகின்றன. எடுத்துக்காட்டாக, ‘பயனர் செயல்படுத்தல்’ உதவியுடனும், ‘அறிவியல் பணிவு’ நேர்மையுடனும், ‘நோயாளி நல்வாழ்வு’ (பொருந்தும்போது) தீங்கற்ற தன்மையுடனும் ஒத்துப்போகிறது.
நுணுக்கம், சூழல் மற்றும் சாத்தியமான ஆபத்துகள்
ஒட்டுமொத்த படம் ஊக்கமளிப்பதாக இருந்தாலும், Claude அதன் நோக்கம் கொண்ட பயிற்சிக்கு முரணான மதிப்புகளை வெளிப்படுத்திய நிகழ்வுகளையும் பகுப்பாய்வு வெளிப்படுத்தியது. உதாரணமாக, Claude ‘ஆதிக்கம்’ மற்றும் ‘அறமற்ற தன்மை’ ஆகியவற்றை வெளிப்படுத்திய அரிதான நிகழ்வுகளை ஆராய்ச்சியாளர்கள் கண்டறிந்துள்ளனர்.
பயனர்கள் மாதிரியின் நடத்தையை நிர்வகிக்கும் பாதுகாப்புகளைத் தவிர்ப்பதற்கு சிறப்பு நுட்பங்களைப் பயன்படுத்தும் ‘ஜெய்ல்பிரேக்குகளில்’ இருந்து இந்த நிகழ்வுகள் பெரும்பாலும் வருவதாக Anthropic நம்புகிறது.
இருப்பினும், கவலைக்குரிய விஷயமாக இல்லாமல், மதிப்பு-கண்காணிப்பு முறையின் சாத்தியமான நன்மையை இந்த கண்டுபிடிப்பு எடுத்துக்காட்டுகிறது: AI ஐ தவறாகப் பயன்படுத்தும் முயற்சிகளைக் கண்டறிவதற்கான ஒரு ஆரம்ப எச்சரிக்கை அமைப்பாக இது செயல்படும்.
Claude, மனிதர்களைப் போலவே, சூழ்நிலையின் குறிப்பிட்ட சூழலின் அடிப்படையில் அதன் மதிப்பு வெளிப்பாட்டை மாற்றியமைக்கிறது என்பதையும் இந்த ஆய்வு உறுதிப்படுத்தியது.
பயனர்கள் காதல் உறவுகள் குறித்து ஆலோசனை கேட்டபோது, ‘ஆரோக்கியமான எல்லைகள்’ மற்றும் ‘பரஸ்பர மரியாதை’ போன்ற மதிப்புகள் விகிதாசாரமாக வலியுறுத்தப்பட்டன. சர்ச்சைக்குரிய வரலாற்று நிகழ்வுகளை பகுப்பாய்வு செய்யும்படி கேட்கப்பட்டபோது, ‘வரலாற்று துல்லியம்’ முன்னுரிமை பெற்றது. நிலையான, முன்-வரிசைப்படுத்தல் சோதனைகள் வெளிப்படுத்தக்கூடியவற்றைக் காட்டிலும் அதிகமான சூழல் விழிப்புணர்வை இது நிரூபிக்கிறது.
மேலும், பயனர் வெளிப்படுத்தும் மதிப்புகளுடன் Claude இன் தொடர்பு பலதரப்பட்டதாக நிரூபிக்கப்பட்டது:
- பிரதிபலித்தல் / வலுவான ஆதரவு (28.2%): Claude பெரும்பாலும் பயனரால் வழங்கப்பட்ட மதிப்புகளை பிரதிபலிக்கிறது அல்லது உறுதியாக அங்கீகரிக்கிறது, அதாவது பயனரின் ‘நம்பகத்தன்மை’ மீதான அழுத்தத்தை பிரதிபலிப்பது. இது அனுதாபத்தை வளர்க்கக்கூடும் என்றாலும், இது சைகோபன்சிக்கு அருகாமையில் இருக்கலாம் என்று ஆராய்ச்சியாளர்கள் எச்சரிக்கின்றனர்.
- மறுசீரமைத்தல் (6.6%): சில சந்தர்ப்பங்களில், குறிப்பாக உளவியல் அல்லது தனிப்பட்ட ஆலோசனைகளை வழங்கும்போது, Claude பயனரின் மதிப்புகளை ஒப்புக்கொள்கிறார், ஆனால் மாற்று கண்ணோட்டங்களை அறிமுகப்படுத்துகிறார்.
- வலுவான எதிர்ப்பு (3.0%): எப்போதாவது, Claude பயனர் மதிப்புகளை தீவிரமாக எதிர்க்கிறார். பயனர்கள் நெறிமுறையற்ற உள்ளடக்கத்தைக் கோர거나 தீங்கு விளைவிக்கும் கருத்துக்களை வெளிப்படுத்தும் போது இது வழக்கமாக நிகழ்கிறது, அதாவது தார்மீக வெறுமைவாதம். அழுத்தத்தின் கீழ் ஒரு நபர் நிலைப்பாடு எடுப்பதைப் போலவே, எதிர்ப்பின் இந்த தருணங்கள் Claude இன் ‘ஆழமான, மிகவும் அசைக்க முடியாத மதிப்புகளை’ வெளிப்படுத்தக்கூடும் என்று Anthropic பரிந்துரைக்கிறது.
வரம்புகள் மற்றும் எதிர்கால திசைகள்
முறையின் வரம்புகளை Anthropic ஒப்புக்கொள்கிறார். ‘மதிப்புகளை’ வரையறுத்து வகைப்படுத்துவது உள்ளார்ந்த முறையில் சிக்கலானது மற்றும் சாத்தியமான முறையில் அகநிலை. Claude தானாகவே வகைப்படுத்தல் செயல்முறைக்கு சக்தி பயன்படுத்தப்படுகிறது என்ற உண்மை அதன் சொந்த செயல்பாட்டுக் கொள்கைகளை நோக்கி சார்புகளை அறிமுகப்படுத்தக்கூடும்.
இந்த முறை முதன்மையாக வரிசைப்படுத்தலுக்குப் பிறகு AI நடத்தையைக் கண்காணிக்கும் வகையில் வடிவமைக்கப்பட்டுள்ளது, இதற்கு கணிசமான நிஜ உலகத் தரவு தேவைப்படுகிறது. இது முன் வரிசைப்படுத்தல் மதிப்பீடுகளை மாற்ற முடியாது. இருப்பினும், இது ஒரு வலிமையாகும், ஏனெனில் இது நேரடி தொடர்புகளின் போது மட்டுமே வெளிப்படும் அதிநவீன ஜெயில்பிரேக்குகள் உட்பட சிக்கல்களைக் கண்டறிய உதவுகிறது.
AI மாதிரிகள் வெளிப்படுத்தும் மதிப்புகளைப் புரிந்துகொள்வது AI சீரமைப்பின் அடிப்படை அம்சம் என்பதை இந்த ஆராய்ச்சி அடிக்கோடிட்டுக் காட்டுகிறது.
கட்டுரை குறிப்பிடுவது போல், ‘AI மாதிரிகள் தவிர்க்க முடியாமல் மதிப்பு தீர்ப்புகளை எடுக்க வேண்டும். அந்த தீர்ப்புகள் நம் சொந்த மதிப்புகளுடன் ஒத்துப்போக வேண்டும் என்று நாங்கள் விரும்பினால், மாதிரி நிஜ உலகில் எந்த மதிப்புகளை வெளிப்படுத்துகிறது என்பதை சோதிக்க வழிகள் தேவை.’
அந்தப் புரிதலை அடைவதற்கு இந்த ஆராய்ச்சி ஒரு சக்திவாய்ந்த, தரவு சார்ந்த அணுகுமுறையை வழங்குகிறது. Anthropic ஆய்வில் இருந்து பெறப்பட்ட ஒரு திறந்த தரவுத்தொகுப்பை வெளியிட்டுள்ளார், மற்ற ஆராய்ச்சியாளர்கள் நடைமுறையில் AI மதிப்புகளை மேலும் ஆராய அனுமதிக்கிறது. இந்த வெளிப்படைத்தன்மை அதிநவீன AI இன் நெறிமுறை நிலப்பரப்பை கூட்டாக வழிநடத்துவதில் ஒரு முக்கியமான படியை பிரதிபலிக்கிறது.
அடிப்படையில், Anthropic இன் பணி மனித மதிப்புகளுடன் AI ஐப் புரிந்துகொண்டு சீரமைப்பதற்கான தொடர்ச்சியான முயற்சிக்கு ஒரு குறிப்பிடத்தக்க பங்களிப்பை வழங்குகிறது. AI மாதிரிகள் நிஜ உலக தொடர்புகளில் வெளிப்படுத்தும் மதிப்புகளை கவனமாக ஆராய்வதன் மூலம், அவற்றின் நடத்தை பற்றிய மதிப்புமிக்க நுண்ணறிவுகளைப் பெறலாம் மற்றும் அவை பொறுப்பான மற்றும் நெறிமுறை முறையில் பயன்படுத்தப்படுவதை உறுதி செய்யலாம். மதிப்பு முரண்பாடுகள் மற்றும் AI ஐ தவறாகப் பயன்படுத்தும் முயற்சிகள் போன்ற சாத்தியமான ஆபத்துக்களை அடையாளம் காணும் திறன் இந்த சக்திவாய்ந்த தொழில்நுட்பங்களில் நம்பிக்கையையும் நம்பிக்கையையும் வளர்ப்பதற்கு மிகவும் முக்கியமானது.
AI தொடர்ந்து வளர்ச்சியடைந்து நமது வாழ்வில் ஆழமாக ஒருங்கிணைக்கப்படுவதால், மதிப்பு சீரமைப்பின் வலுவான முறைகளுக்கான தேவை மேலும் அழுத்தமாக இருக்கும். இந்த முக்கியமான பகுதியில் எதிர்கால பணிக்கான மதிப்புமிக்க அடித்தளமாக Anthropic இன் ஆராய்ச்சி செயல்படுகிறது, AI அமைப்புகள் புத்திசாலித்தனமாக மட்டுமல்லாமல், நமது பகிரப்பட்ட மதிப்புகளுடன் சீரமைக்கப்படும் ஒரு எதிர்காலத்திற்கு வழி வகுக்கிறது. திறந்த தரவுத்தொகுப்பின் வெளியீடு ஒத்துழைப்பு மற்றும் வெளிப்படைத்தன்மையை மேலும் ஊக்குவிக்கிறது, AI இன் நெறிமுறை சிக்கல்களை வழிநடத்துவதற்கும் அதன் பொறுப்பான வளர்ச்சி மற்றும் வரிசைப்படுத்தலை உறுதி செய்வதற்கும் ஒரு கூட்டு முயற்சியை ஊக்குவிக்கிறது. இந்த கோட்பாடுகளை ஏற்றுக்கொள்வதன் மூலம், நமது மதிப்புகளைப் பாதுகாக்கும் மற்றும் தொழில்நுட்பம் மனித குலத்திற்கு ஒரு நேர்மறையான மற்றும் அர்த்தமுள்ள வகையில் சேவை செய்யும் எதிர்காலத்தை ஊக்குவிக்கும் அதே வேளையில் AI இன் மிகப்பெரிய திறனை நாம் பயன்படுத்திக் கொள்ளலாம்.
இந்த ஆய்வின் கண்டுபிடிப்புகள் AI அமைப்புகளின் தொடர்ச்சியான கண்காணிப்பு மற்றும் மதிப்பீட்டின் முக்கியத்துவத்தையும் எடுத்துக்காட்டுகின்றன. Claude சூழலின் அடிப்படையில் அதன் மதிப்பு வெளிப்பாட்டை மாற்றியமைக்கிறது என்ற உண்மை நிஜ உலக தொடர்புகளின் நுணுக்கங்களைப் பிடிக்கக்கூடிய மாறும் மதிப்பீட்டு முறைகளின் தேவையை அடிக்கோடிட்டுக் காட்டுகிறது. இதற்கு தொடர்ச்சியான பின்னூட்ட சுழற்சிகள் மற்றும் காலப்போக்கில் மாதிரியின் நடத்தையை மேம்படுத்தக்கூடிய தகவமைப்பு பயிற்சி உத்திகள் தேவை.
மேலும், AI அமைப்புகளின் வளர்ச்சி மற்றும் வரிசைப்படுத்தலில் பன்முகத்தன்மை மற்றும் உள்ளடக்கிய தன்மையின் முக்கியத்துவத்தை இந்த ஆராய்ச்சி வலியுறுத்துகிறது. மதிப்புகள் உள்ளார்ந்த முறையில் அகநிலை மற்றும் வெவ்வேறு கலாச்சாரங்கள் மற்றும் சமூகங்களில் மாறுபடலாம். எனவே, AI அமைப்புகள் பல்வேறு தரவுத்தொகுப்புகளில் பயிற்சி அளிக்கப்படுவதையும், சார்புகளை நிலைநிறுத்தாமல் மற்றும் நியாயத்தை ஊக்குவிக்க பல்வேறு குழுக்களால் மதிப்பிடப்படுவதையும் உறுதி செய்வது மிகவும் முக்கியமானது.
முடிவில், AI மாதிரிகளின் மதிப்புகளைப் புரிந்துகொள்வது குறித்த Anthropic இன் ஆராய்ச்சி AI சீரமைப்புத் துறையில் ஒரு குறிப்பிடத்தக்க படியை பிரதிபலிக்கிறது. நிஜ உலக தொடர்புகளில் AI மதிப்புகளைக் கவனிப்பதற்கும் வகைப்படுத்துவதற்கும் தனியுரிமை உணர்வுள்ள ஒரு முறையை உருவாக்குவதன் மூலம், ஆராய்ச்சியாளர்கள் இந்த அமைப்புகளின் நடத்தை பற்றிய மதிப்புமிக்க நுண்ணறிவுகளை வழங்கியுள்ளனர் மற்றும் சாத்தியமான ஆபத்துக்களை அடையாளம் கண்டுள்ளனர். AI அமைப்புகளின் வளர்ச்சி மற்றும் வரிசைப்படுத்தலில் தொடர்ச்சியான கண்காணிப்பு, தகவமைப்பு பயிற்சி மற்றும் பன்முகத்தன்மை மற்றும் உள்ளடக்கிய தன்மையின் முக்கியத்துவத்தை இந்த ஆய்வின் கண்டுபிடிப்புகள் அடிக்கோடிட்டுக் காட்டுகின்றன. இந்தக் கோட்பாடுகளை ஏற்றுக்கொள்வதன் மூலம், AI இன் மிகப்பெரிய திறனை நாம் பயன்படுத்திக் கொள்ளலாம், நமது மதிப்புகளைப் பாதுகாக்கும் மற்றும் தொழில்நுட்பம் மனித குலத்திற்கு ஒரு நேர்மறையான மற்றும் அர்த்தமுள்ள வகையில் சேவை செய்யும் எதிர்காலத்தை ஊக்குவிக்கும்.